Apple dnes oznámili že so spustením iOS 15 a iPad 15 , spustí sa skenovanie Fotografie iCloud v USA, aby hľadali známy materiál o sexuálnom zneužívaní detí (CSAM), s plánmi oznámiť zistenia Národnému centru pre nezvestné a zneužívané deti (NCMEC).
Predtým, ako Apple podrobne opísal svoje plány, unikli správy o iniciatíve CSAM a bezpečnostní výskumníci už začali vyjadrovať obavy, ako by sa dal v budúcnosti použiť nový protokol Apple na skenovanie obrázkov, ako poznamenal Peňažné časy .
Apple používa systém „NeuralHash“ na porovnávanie známych obrázkov sexuálneho zneužívania detí s fotografiami používateľa iPhone pred ich nahraním do iCloudu. Ak sa nájde zhoda, táto fotografia sa nahrá s kryptografickým bezpečnostným poukazom a pri určitej hranici sa spustí kontrola, aby sa skontrolovalo, či má daná osoba na svojich zariadeniach obsah zobrazujúci sexuálne zneužívanie detí.
je lepšia spotify alebo apple music
V súčasnosti spoločnosť Apple využíva svoju technológiu skenovania a porovnávania obrázkov na vyhľadávanie zneužívania detí, ale výskumníci sa obávajú, že v budúcnosti by mohla byť prispôsobená na skenovanie iných druhov snímok, ktoré sú viac znepokojujúce, napríklad protivládne nápisy na protesty.
V sérii tweetov výskumník kryptografie Johns Hopkins Matúš Green povedal, že skenovanie CSAM je „naozaj zlý nápad“, pretože v budúcnosti by sa mohlo rozšíriť na skenovanie end-to-end šifrovaných fotografií, a nie iba obsahu, ktorý sa nahráva do iCloud. Pre deti Apple je implementácia samostatnej funkcie skenovania, ktorá hľadá sexuálne explicitný obsah priamo v iMessages, ktoré sú end-to-end šifrované.
Green tiež vyjadril obavy v súvislosti s hashmi, ktoré Apple plánuje použiť, pretože by mohlo dôjsť ku kolíziám, pri ktorých niekto pošle neškodný súbor, ktorý zdieľa hash s CSAM, čo by mohlo viesť k falošnej vlajke.
Apple tvrdí, že jeho technológia skenovania má „extrémne vysokú úroveň presnosti“, aby sa ubezpečil, že účty nie sú nesprávne označené, a že hlásenia sa manuálne kontrolujú predtým, ako používateľ iCloud účet je deaktivovaný a do NCMEC sa odošle správa.
Green verí, že implementácia spoločnosti Apple prinúti ďalšie technologické spoločnosti, aby prijali podobné techniky. „Toto pretrhne hrádzu,“ napísal. 'Vlády to budú vyžadovať od každého.' Technológiu prirovnal k „nástrojom, ktoré nasadili represívne režimy“.
To sú zlé veci. Zvlášť nechcem byť na strane detskej porna a nie som terorista. Problém je však v tom, že šifrovanie je výkonný nástroj, ktorý poskytuje súkromie, a nemôžete mať skutočne silné súkromie a zároveň sledovať každý obrázok, ktorý ktokoľvek pošle. — Matthew Green (@matthew_d_green) 5. augusta 2021
Bezpečnostný výskumník Alec Muffett, ktorý predtým pracoval na Facebooku, uviedol, že rozhodnutie spoločnosti Apple implementovať tento druh skenovania obrázkov bolo „obrovským a regresívnym krokom pre súkromie jednotlivcov“. „Apple sa vracia do súkromia, aby umožnil rok 1984,“ povedal.
Ross Anderson, profesor bezpečnostného inžinierstva na University of Cambridge, povedal, že to nazval „absolútne otrasný nápad“, ktorý by mohol viesť k „distribuovanému hromadnému dohľadu“ zariadení.
Ako mnohí zdôraznili na Twitteri, viaceré technologické spoločnosti už skenujú obrázky pre CSAM. Google, Twitter, Microsoft, Facebook a ďalšie používajú metódy hashovania obrázkov na vyhľadávanie a nahlasovanie známych obrázkov zneužívania detí.
A ak vás zaujíma, či Google skenuje obrázky, či neobsahuje obrázky zneužívania detí, odpovedal som, že v príbehu, ktorý som napísal pred ôsmimi rokmi: robí to **OD ROKU 2008**. Možno si všetci sadnite a nasaďte si klobúky. pic.twitter.com/ruJ4Z8SceY - Charles Arthur (@charlesarthur) 5. augusta 2021
Za zmienku tiež stojí, že Apple bol už skenovanie nejakého obsahu pre obrázky zneužívania detí pred zavedením novej iniciatívy CSAM. V roku 2020, Jane Horvath, riaditeľka ochrany osobných údajov spoločnosti Apple, uviedla, že spoločnosť Apple použila technológiu skríningu na vyhľadávanie nelegálnych obrázkov a potom deaktivovala účty, ak sa zistí dôkaz o CSAM.
ako vložiť heslo do aplikácie pre iphone
Apple v roku 2019 aktualizovala svoje zásady ochrany osobných údajov poznamenať, že bude skenovať nahraný obsah, či neobsahuje „potenciálne nezákonný obsah vrátane materiálu týkajúceho sa sexuálneho zneužívania detí“, takže dnešné oznámenia nie sú úplne nové.
Poznámka: Vzhľadom na politický alebo spoločenský charakter diskusie na túto tému sa diskusné vlákno nachádza v našom Politické správy fórum. Všetci členovia fóra a návštevníci stránky sú vítaní, aby si prečítali a sledovali vlákno, ale uverejňovanie je obmedzené na členov fóra s najmenej 100 príspevkami.
Tagy: Apple súkromie , Apple funkcie ochrany detí
Populárne Príspevky