Apple News

Šéf Apple Privacy Chief vysvetľuje „vstavanú“ ochranu súkromia vo funkciách bezpečnosti detí uprostred obáv používateľov

utorok 10. augusta 2021 10:07 PDT od Hartley Charlton

Vedúci oddelenia ochrany osobných údajov spoločnosti Apple Erik Neuenschwander na niektoré z nich odpovedal obavy používateľov okolo plánov spoločnosti na nové bezpečnostné prvky pre deti ktorý bude skenovať správy a Fotografie knižnice, v rozhovore s TechCrunch .





Detská poistka Modrá
Na otázku, prečo sa spoločnosť Apple rozhodla implementovať iba funkcie bezpečnosti detí, ktoré skenujú materiál na sexuálne zneužívanie detí (CSAM), Neuenschwander vysvetlil, že Apple „teraz má technológiu, ktorá dokáže vyvážiť silnú bezpečnosť detí a súkromie používateľov“, čím spoločnosti „nové“ schopnosť identifikovať účty, ktoré spúšťajú zber známych materiálov CSAM.“

Neuenschwander dostal otázku, či pri spätnom ohlasovaní funkcií bezpečnosti komunikácie v správach a systému detekcie CSAM v r. Fotografie iCloud spolu bolo správne rozhodnutie, na ktoré odpovedal:



ako vymazať cookies na macbooku

No, hoci sú to [dva] systémy, sú tiež súčasťou spolu s našimi zvýšenými zásahmi, ktoré budú prichádzať do Siri a vyhľadávania. Rovnako dôležité, ako je identifikácia zbierok známych CSAM, kde sú uložené v službe Apple iCloud Photos, je tiež dôležité pokúsiť sa dostať pred túto už aj tak hroznú situáciu.

Na otázku, či sa Apple snaží demonštrovať vládam a agentúram na celom svete, že je možné vyhľadávať nezákonný obsah pri zachovaní súkromia používateľov, Neuenschwander vysvetlil:

Teraz, prečo to urobiť, je, ako ste povedali, toto je niečo, čo poskytne túto schopnosť detekcie a zároveň zachová súkromie používateľa. Motivuje nás potreba urobiť viac pre bezpečnosť detí v digitálnom ekosystéme a myslím si, že všetky tri naše funkcie robia v tomto smere veľmi pozitívne kroky. Zároveň ponecháme súkromie nerušené všetkým, ktorí nie sú zapojení do nezákonnej činnosti.

Dostal otázku, či spoločnosť Apple vytvorila rámec, ktorý by bolo možné použiť pre orgány činné v trestnom konaní na skenovanie iných druhov obsahu v knižniciach používateľov a či to podkopáva záväzok spoločnosti Apple k end-to-end šifrovaniu.

Nič to nemení. Zariadenie je stále zašifrované, kľúč stále nedržíme a systém je navrhnutý tak, aby fungoval s údajmi na zariadení... Alternatívou len spracovania tak, že sa pokúsime vyhodnotiť údaje používateľov na serveri, je v skutočnosti viac poddajné zmenám [bez vedomia používateľa] a menej chránia súkromie používateľa... Myslím si, že práve tieto druhy systémov sú znepokojujúcejšie, pokiaľ ide o vlastnosti ochrany osobných údajov – alebo o tom, ako by sa dali zmeniť bez akéhokoľvek pochopenia alebo znalosti používateľa robiť veci iné, než na čo boli navrhnuté.

môžete sledovať puzdro na airpods

Neuenschwander bol potom požiadaný, či by spoločnosť Apple mohla byť prinútená dodržiavať zákony mimo Spojených štátov, ktoré ju môžu prinútiť pridať veci, ktoré nie sú CSAM, do databázy, aby ich skontrolovali na zariadení, pričom vysvetlil, že existuje množstvo ochrany zabudované do služby.

Hašovací zoznam je zabudovaný do operačného systému, máme jeden globálny operačný systém a nemáme možnosť zacieliť aktualizácie na jednotlivých používateľov, takže hašovacie zoznamy budú zdieľať všetci používatelia, keď je systém povolený. A po druhé, systém vyžaduje prekročenie prahovej hodnoty obrázkov, takže pokus o vyhľadanie čo i len jedného obrázka zo zariadenia osoby alebo zo sady zariadení iných ľudí nebude fungovať, pretože systém jednoducho neposkytuje spoločnosti Apple žiadne informácie o jednotlivých uložených fotografiách. v našej službe. A potom, po tretie, systém doň zabudoval fázu manuálnej kontroly, v ktorej, ak je účet označený ako nezákonný materiál zobrazujúci sexuálne zneužívanie detí, tím spoločnosti Apple to skontroluje, aby sa uistil, že ide o správnu zhodu s nezákonným materiálom CSAM. pred vykonaním akéhokoľvek postúpenia akémukoľvek externému subjektu. A tak si hypotetická situácia vyžaduje preskočiť veľa obručí, vrátane toho, že Apple zmení svoj interný proces tak, aby odkazoval materiál, ktorý nie je nelegálny, ako napríklad známy CSAM, a o ktorom neveríme, že existuje základ, na ktorom to budú ľudia schopní urobiť. žiadosť v USA A posledný bod, ktorý by som len dodal, je, že stále zachováva voľbu používateľa, ak sa používateľovi nepáči tento druh funkčnosti, môže sa rozhodnúť nepoužívať iCloud Fotky a ak nie je povolená iCloud Fotky, nie časť systému je funkčná.

Neuenschwander pokračoval, že pre používateľov, ktorí „toto nezákonné správanie nezaujímajú, Apple nezíska žiadne ďalšie poznatky o cloudovej knižnici žiadneho používateľa“ a „zanecháva súkromie úplne nerušené“.

aké sú nové emotikony 2020

Pozri TechCrunch Celý rozhovor s Neuenschwanderom Pre viac informácií.

Tagy: Apple súkromie , Apple funkcie ochrany detí