Posted on: March 5, 2021 Posted by: Canila Shah Comments: 0

Zde je rozpis tří nových funkcí bezpečnosti dětí, které společnost Apple nedávno oznámila, a jejich fungování.

Apple nedávno oznámil novou ochranu bezpečnosti dětí, která přichází na podzim s uvedením iOS 15, iPadOS 15 a macOS Monterey.

Níže se podrobněji podíváme na tyto rozšířené funkce dětské bezpečnosti a technologie za nimi.

Skenování materiálu sexuálního zneužívání dětí

Nejpozoruhodnější změnou je, že Apple začne používat novou technologii k detekci obrázků zobrazujících obrázky zneužívání dětí uložené ve Fotkách iCloud.

Tyto obrázky jsou známé jako materiál pro sexuální zneužívání dětí nebo CSAM a Apple jejich případy nahlásí Národnímu centru pro pohřešované a zneužívané děti. NCMEC je zpravodajské centrum pro CSAM a spolupracuje s orgány činnými v trestním řízení.

Při spuštění bude skenování CSAM společnosti Apple omezeno na Spojené státy.

Apple říká, že systém používá kryptografii a byl navržen s ohledem na soukromí. Obrázky se před nahráním do iCloud fotografií naskenují na zařízení.

Podle společnosti Apple není třeba se obávat, že by zaměstnanci společnosti Apple viděli vaše skutečné fotografie. Místo toho NCMEC poskytuje společnosti Apple obrazové hashování obrázků CSAM. Hash pořídí obrázek a vrátí dlouhý jedinečný řetězec písmen a číslic.

Apple vezme tyto hash a transformuje data do nečitelné sady hash uložených bezpečně na zařízení.

Před synchronizací obrázku s iCloud Photos je porovnán s obrázky CSAM. Díky speciální kryptografické technologii – křižovatce soukromých sad – systém určuje, zda existuje shoda, aniž by odhalil výsledek.

Pokud existuje shoda, zařízení vytvoří šifrovací bezpečnostní poukázku, která kóduje shodu spolu s více šifrovanými daty o obrázku. Tento poukaz se nahraje na iCloud Photos s obrázkem.

Pokud účet iCloud Photos nepřekročí konkrétní prahovou hodnotu obsahu CSAM, systém zajistí, že bezpečnostní poukazy nebude možné přečíst ze strany společnosti Apple. Je to díky kryptografické technologii zvané tajné sdílení.

Podle společnosti Apple poskytuje neznámá prahová hodnota vysokou přesnost a zajišťuje méně než jednu ku jednomu bilionu šancí na nesprávné označení účtu.

Když je práh překročen, technologie umožní společnosti Apple interpretovat poukázky a odpovídající obrázky CSAM. Apple poté každou zprávu ručně zkontroluje a potvrdí shodu. Pokud je to potvrzeno, Apple deaktivuje uživatelský účet a poté odešle zprávu do NCMEC.

Pokud se uživatel domnívá, že jeho účet byl technologií omylem označen, proběhne odvolací proces k obnovení.

Pokud máte z nového systému obavy ohledně soukromí, Apple potvrdil, že pokud zakážete iCloud Photos, nebudou pomocí kryptografické technologie skenovány žádné fotografie. Můžete to udělat tak, že přejdete na Nastavení> [Your Name] > iCloud> Fotky.

Při vypínání iCloud fotografií existuje několik stinných stránek. Všechny fotografie a videa budou uloženy ve vašem zařízení. To může způsobit problémy, pokud máte spoustu obrázků a videí a starší iPhone s omezeným úložištěm.

Také fotografie a videa pořízená na zařízení nebudou přístupná na jiných zařízeních Apple pomocí účtu iCloud.

Apple vysvětluje více o technologii používané při detekci CSAM v bílý papír PDF. Můžete si také přečíst an Apple FAQ s dalšími informacemi o systému.

Apple ve FAQ uvádí, že detekční systém CSAM nelze použít k detekci čehokoli jiného než CSAM. Společnost také uvádí, že ve Spojených státech a mnoha dalších zemích je držení obrázků CSAM zločinem a společnost Apple je povinna informovat úřady.

Společnost také říká, že odmítne jakékoli vládní požadavky na přidání obrázku, který není CSAM, do seznamu hash. Také to vysvětluje, proč obrázky, které nejsou CSAM, nemohly být do systému přidány třetí stranou.

Kvůli lidské kontrole a skutečnosti, že použité hashe pocházejí ze známých i stávajících obrázků CSAM, Apple říká, že systém byl navržen tak, aby byl přesný a vyhnul se problémům s jinými obrázky nebo nevinnými uživateli, kteří jsou hlášeni NCMEC.

Další komunikační bezpečnostní protokol ve zprávách

Další novou funkcí budou přidané bezpečnostní protokoly v aplikaci Zprávy. To nabízí nástroje, které varují děti a jejich rodiče při odesílání nebo přijímání zpráv se sexuálně explicitními fotografiemi.

Po přijetí jedné z těchto zpráv bude fotografie rozmazaná a dítě bude také varováno. Mohou vidět užitečné zdroje a je jim řečeno, že je v pořádku, pokud si obrázek nepřehlédnou.

Tato funkce bude k dispozici pouze pro účty nastavené jako rodiny v iCloudu. Rodiče nebo zákonní zástupci se budou muset přihlásit, aby aktivovali bezpečnostní funkci komunikace. Mohou se také rozhodnout, že budou upozorněni, když dítě do 12 let odešle nebo obdrží sexuálně explicitní obrázek.

U dětí ve věku 13 až 17 let nejsou rodiče upozorněni. Dítě však bude varováno a dotázáno, zda chce zobrazit nebo sdílet sexuálně explicitní obrázek.

Zprávy pomocí strojového učení na zařízení určují, zda je příloha nebo obrázek sexuálně explicitní. Společnost Apple neobdrží žádný přístup ke zprávám ani k obsahu obrázků.

Tato funkce bude fungovat pro běžné zprávy SMS i iMessage a není propojena s funkcí skenování CSAM, kterou jsme podrobně popsali výše.

Další změny přicházejí s nejnovějším softwarem Apple

Tři nové funkce od společnosti Apple, které byly vyvinuty ve spolupráci s odborníky na bezpečnost, jsou navrženy tak, aby pomohly zajistit bezpečí dětí online. I když tyto funkce mohou v některých kruzích zaměřených na ochranu osobních údajů vzbuzovat obavy, společnost Apple o této technologii a o tom, jak bude vyvažovat obavy o soukromí a ochranu dětí, stále přichází.

Leave a Comment