Apple News

Spoločnosť Apple zverejňuje časté otázky, aby riešila obavy týkajúce sa detekcie CSAM a skenovania správ

Pondelok 9. augusta 2021 2:50 PDT od Tima Hardwicka

Spoločnosť Apple zverejnila často kladené otázky s názvom „Rozšírená ochrana pre deti“, ktorej cieľom je rozptýliť obavy používateľov týkajúce sa ochrany osobných údajov v súvislosti s novou detekciou CSAM v Fotografie iCloud a bezpečnosť komunikácie pre funkcie správ, ktoré spoločnosť oznámil minulý týždeň .





Apple súkromie
„Odkedy sme oznámili tieto funkcie, mnoho zainteresovaných strán vrátane organizácií na ochranu súkromia a organizácií na ochranu detí vyjadrilo podporu tomuto novému riešeniu a niektorí sa obrátili s otázkami,“ uvádza sa v FAQ. „Tento dokument slúži na vyriešenie týchto otázok a poskytuje väčšiu jasnosť a transparentnosť v procese.“

Niektoré diskusie rozmazali rozdiel medzi týmito dvoma funkciami a Apple sa s tým veľmi trápi dokument na ich odlíšenie a vysvetľuje, že bezpečnosť komunikácie v aplikácii Správy „funguje iba na obrázkoch odoslaných alebo prijatých v aplikácii Správy pre detské účty nastavené v Rodinnom zdieľaní“, zatiaľ čo detekcia CSAM v ‌iCloud Photos‌ 'ovplyvňuje iba používateľov, ktorí sa rozhodli používať ‌iCloud Photos‌ ukladať ich fotografie... Nemá to žiadny vplyv na žiadne iné údaje v zariadení.“



Z často kladených otázok:

ako minimalizovať aplikácie na iphone 11

Tieto dve funkcie nie sú rovnaké a nepoužívajú rovnakú technológiu.

Bezpečnosť komunikácie v aplikácii Správy je navrhnutá tak, aby poskytla rodičom a deťom ďalšie nástroje, ktoré pomôžu chrániť ich deti pred odosielaním a prijímaním sexuálne explicitných obrázkov v aplikácii Správy. Funguje iba na obrázkoch odoslaných alebo prijatých v aplikácii Správy pre detské účty nastavené v Rodinnom zdieľaní. Analyzuje obrázky na zariadení, a preto nemení zabezpečenie ochrany osobných údajov správ. Keď detský účet odošle alebo prijme sexuálne explicitné obrázky, fotografia bude rozmazaná a dieťa bude upozornené, budú mu poskytnuté užitočné zdroje a bude mu ubezpečené, že je v poriadku, ak si fotografiu nechce zobraziť alebo odoslať. Ako ďalšie preventívne opatrenie môže byť malým deťom tiež povedané, že ich rodičia dostanú správu, aby sa uistili, že sú v bezpečí, ak si ju pozrú.

Druhá funkcia, detekcia CSAM vo Fotkách iCloud, je navrhnutá tak, aby sa obsah CSAM nezobrazoval vo Fotkách iCloud bez toho, aby spoločnosť Apple poskytovala informácie o iných fotografiách, ako sú tie, ktoré sa zhodujú so známymi obrázkami CSAM. Vo väčšine krajín, vrátane Spojených štátov amerických, je držanie obrázkov zobrazujúcich sexuálne zneužívanie detí nezákonné. Táto funkcia sa týka iba používateľov, ktorí sa rozhodli na ukladanie svojich fotiek používať iCloud Fotky. Nemá vplyv na používateľov, ktorí sa nerozhodli používať iCloud Fotky. Nemá to žiadny vplyv na žiadne iné údaje v zariadení. Táto funkcia sa nevzťahuje na Správy.

Zvyšok dokumentu je rozdelený do troch častí (nižšie tučným písmom) s odpoveďami na nasledujúce často kladené otázky:

ako pridám svoje airpody, aby som našiel svoj iphone

Apple Watch se vs séria 4
    Bezpečnosť komunikácie v správach
  • Kto môže využívať bezpečnosť komunikácie v aplikácii Správy?
  • Znamená to, že Správy budú zdieľať informácie so spoločnosťou Apple alebo orgánmi činnými v trestnom konaní?
  • Naruší to šifrovanie typu end-to-end v aplikácii Správy?
  • Bráni táto funkcia deťom v násilných rodinách vyhľadať pomoc?
  • Budú rodičia informovaní bez toho, aby boli deti varované a mali na výber?
  • Detekcia CSAM
  • Znamená to, že Apple bude skenovať všetky fotografie uložené v mojom počítači iPhone ?
  • Stiahnu sa obrázky CSAM do môjho ‌iPhone‌ porovnať s mojimi fotkami?
  • Prečo to Apple robí teraz?
  • Zabezpečenie detekcie CSAM pre iCloud Photos
  • Môže systém detekcie CSAM v ‌iCloud Photos‌ použiť na zisťovanie iných vecí ako CSAM?
  • Mohli by vlády prinútiť spoločnosť Apple, aby do zoznamu hash pridala obrázky, ktoré nie sú sexuálne zneužívané a zneužívané?
  • Dajú sa do systému „vložiť“ obrázky, ktoré nesúvisia s materiálom zobrazujúcim sexuálne zneužívanie detí, aby sa označili účty pre iné veci ako sú materiály zobrazujúce sexuálne zneužívanie detí?
  • Bude detekcia CSAM v ‌iCloud Photos‌ falošne nahlásiť nevinných ľudí orgánom činným v trestnom konaní?

Zainteresovaní čitatelia by si mali v dokumente prečítať úplné odpovede spoločnosti Apple na tieto otázky. Stojí však za zmienku, že pri tých otázkach, na ktoré je možné odpovedať binárne áno/nie, Apple začína všetky s „Nie“ s výnimkou nasledujúcich troch otázok zo sekcie s názvom „Bezpečnosť detekcie CSAM pre ‌ iCloud Photos‌:'

Dá sa systém detekcie sexuálneho zneužívania detí v iCloud Fotkách použiť na zisťovanie iných vecí, ako sú materiály CSAM?
Náš proces je navrhnutý tak, aby sa tomu zabránilo. Detekcia CSAM pre iCloud Photos je postavená tak, že systém funguje iba s hashmi obrázkov CSAM, ktoré poskytuje NCMEC a ďalšie organizácie na ochranu detí. Tento súbor hashov obrázkov je založený na obrázkoch, ktoré získali a overili organizácie na ochranu detí proti sexuálnemu zneužívaniu detí. Neexistuje žiadne automatické hlásenie orgánom činným v trestnom konaní a spoločnosť Apple pred podaním hlásenia NCMEC vykonáva ľudskú kontrolu. Výsledkom je, že systém je navrhnutý tak, aby nahlasoval iba fotografie, o ktorých je známe, že ide o sexuálne zneužívanie detí v službe iCloud Photos. Vo väčšine krajín vrátane Spojených štátov je jednoduché vlastníctvo týchto obrázkov trestným činom a spoločnosť Apple je povinná nahlásiť všetky prípady, o ktorých sa dozvieme, príslušným orgánom.

Mohli by vlády prinútiť spoločnosť Apple, aby do zoznamu hash pridala obrázky, ktoré nie sú sexuálne zneužívané a zneužívané?
Apple akékoľvek takéto požiadavky odmietne. Schopnosť detekcie sexuálneho zneužívania detí od spoločnosti Apple je vytvorená výlučne na detekciu známych obrázkov sexuálneho zneužívania detí uložených v iCloud Photos, ktoré boli identifikované odborníkmi z NCMEC a ďalšími skupinami pre bezpečnosť detí. Už predtým sme čelili požiadavkám na vytvorenie a nasadenie zmien nariadených vládou, ktoré zhoršujú súkromie používateľov, a tieto požiadavky sme vytrvalo odmietali. Aj v budúcnosti ich budeme odmietať. Ujasnime si, že táto technológia je obmedzená na zisťovanie CSAM uložených v iCloude a nepristúpime na žiadosť žiadnej vlády o jej rozšírenie. Okrem toho spoločnosť Apple pred podaním správy NCMEC vykonáva kontrolu človekom. V prípade, že systém označí fotografie, ktoré sa nezhodujú so známymi obrázkami sexuálneho zneužívania detí, účet nebude deaktivovaný a NCMEC nebude podaná žiadna správa.

Dajú sa do systému „vložiť“ obrázky, ktoré nesúvisia s materiálom zobrazujúcim sexuálne zneužívanie detí, aby sa označili účty pre iné veci ako sú materiály zobrazujúce sexuálne zneužívanie detí?
Náš proces je navrhnutý tak, aby sa tomu zabránilo. Súbor hash obrázkov používaných na porovnávanie pochádza zo známych existujúcich obrázkov sexuálneho zneužívania detí, ktoré získali a overili organizácie pre bezpečnosť detí. Spoločnosť Apple nepridáva do súboru známych hash obrázkov CSAM. Rovnaká sada hashov je uložená v operačnom systéme každého používateľa iPhonu a iPadu, takže cielené útoky len proti konkrétnym jednotlivcom nie sú podľa nášho návrhu možné. Napokon, neexistuje žiadne automatické hlásenie orgánom činným v trestnom konaní a spoločnosť Apple pred podaním hlásenia NCMEC vykonáva ľudskú kontrolu. V nepravdepodobnom prípade, že by systém označil obrázky, ktoré sa nezhodujú so známymi obrázkami sexuálneho zneužívania detí, účet nebude deaktivovaný a NCMEC by sa nepodalo žiadne hlásenie.

Apple čelil značnej kritike od zástancov ochrany osobných údajov, bezpečnostných výskumníkov, odborníkov na kryptografiu, akademikov a ďalších za svoje rozhodnutie nasadiť túto technológiu s vydaním iOS 15 a iPad 15 , očakáva sa v septembri.

To viedlo k otvorený list kritizujúc plán spoločnosti Apple skenovať telefóny iPhone na výskyt CSAM v ‌iCloud Photos‌ a explicitné obrázky v odkazoch pre deti, ktoré v čase písania získali viac ako 5 500 podpisov. Apple tiež dostal kritiku od WhatsApp vlastneného Facebookom, ktorého šéf Will Cathcart nazval to 'nesprávny prístup a prekážka pre súkromie ľudí na celom svete.' Tim Sweeney, generálny riaditeľ Epic Games napadol rozhodnutie, tvrdiac, že ​​sa „veľmi snažil“ vidieť tento krok z pohľadu Apple, ale dospel k záveru, že „neprehliadnuteľne ide o vládny spyware nainštalovaný spoločnosťou Apple na základe prezumpcie viny“.

„Nezáleží na tom, ako dobre to mieni, spoločnosť Apple týmto rozširuje masové sledovanie do celého sveta,“ povedal prominentný informátor Edward Snowden a dodal, že 'ak môžu hľadať detské porno dnes, zajtra môžu hľadať čokoľvek.' Tiež nezisková Electronic Frontier Foundation kritizovaný Plány spoločnosti Apple, v ktorých sa uvádza, že „dokonca aj dôkladne zdokumentované, starostlivo premyslené a úzko vymedzené zadné vrátka sú stále zadné vrátka“.

ako nájdem priateľov na iphone
Tagy: Apple súkromie , Apple funkcie ochrany detí