Apple News

Zamestnanci spoločnosti Apple interne vyjadrujú obavy z plánov na zisťovanie CSAM

Piatok 13. augusta 2021 00:43 PDT od Samiho Fathiho

Zamestnanci spoločnosti Apple sa teraz pripájajú k zboru jednotlivcov, ktorí vyjadrujú obavy z plánov spoločnosti Apple na skenovanie iPhone používateľské knižnice fotografií pre materiály zobrazujúce sexuálne zneužívanie detí alebo sexuálne zneužívanie detí, ktoré údajne interne hovoria o tom, ako by sa táto technológia dala použiť na skenovanie fotografií používateľov na iné typy obsahu, podľa správy z Reuters .





dron Apple Park jún 2018 2
Podľa Reuters , bližšie nešpecifikovaný počet zamestnancov spoločnosti Apple využil interné kanály Slack, aby vyjadrili obavy v súvislosti s detekciou CSAM. Zamestnanci sa konkrétne obávajú, že vlády by mohli prinútiť Apple, aby použil technológiu na cenzúru nájdením iného obsahu ako CSAM. Niektorí zamestnanci sa obávajú, že spoločnosť Apple poškodzuje svoju povesť v oblasti ochrany osobných údajov, ktorá je vedúca v tomto odvetví.

Zamestnanci spoločnosti Apple zaplavili interný kanál Slack spoločnosti Apple viac ako 800 správami o pláne ohlásenom pred týždňom, informovali agentúru Reuters pracovníci, ktorí nechceli byť identifikovaní. Mnohí vyjadrili obavy, že túto funkciu by mohli zneužiť represívne vlády, ktoré chcú nájsť iný materiál na cenzúru alebo zatknutie, podľa pracovníkov, ktorí videli niekoľko dní trvajúcu niť.



Minulé bezpečnostné zmeny v Apple tiež vyvolali obavy medzi zamestnancami, ale objem a trvanie novej diskusie je prekvapujúce, uviedli pracovníci. Niektoré plagáty sa obávajú, že Apple poškodzuje svoju vedúcu povesť v oblasti ochrany súkromia.

Zamestnanci spoločnosti Apple v úlohách týkajúcich sa bezpečnosti používateľov sa podľa správy nepovažujú za súčasť interného protestu.

Odkedy je oznámenie minulý týždeň , Apple bol bombardovaný kritikou za svoje plány na detekciu CSAM, od ktorých sa stále očakáva, že budú spustené s iOS 15 a iPadOS 15 túto jeseň. Obavy sa točia hlavne okolo toho, ako by táto technológia mohla predstavovať šmykľavý svah pre budúce implementácie zo strany represívnych vlád a režimov.

jeden z mojich airpodov prestal fungovať

Spoločnosť Apple dôrazne odmietla myšlienku, že technológiu na zariadení používanú na detekciu materiálu CSAM možno použiť na akýkoľvek iný účel. V zverejnený dokument FAQ Spoločnosť tvrdí, že akúkoľvek takúto požiadavku vlád vehementne odmietne.

Mohli by vlády prinútiť spoločnosť Apple, aby do zoznamu hash pridala obrázky, ktoré nie sú sexuálne zneužívané a zneužívané?
Apple akékoľvek takéto požiadavky odmietne. Schopnosť detekcie sexuálneho zneužívania detí od spoločnosti Apple je vytvorená výlučne na zisťovanie známych obrázkov sexuálneho zneužívania detí uložených v iCloud Photos, ktoré boli identifikované odborníkmi z NCMEC a ďalšími skupinami pre bezpečnosť detí. Už predtým sme čelili požiadavkám na vytvorenie a nasadenie zmien nariadených vládou, ktoré zhoršujú súkromie používateľov, a tieto požiadavky sme vytrvalo odmietali. Aj v budúcnosti ich budeme odmietať. Ujasnime si, že táto technológia je obmedzená na zisťovanie CSAM uložených v iCloude a nepristúpime na žiadosť žiadnej vlády o jej rozšírenie. Okrem toho spoločnosť Apple pred podaním správy NCMEC vykonáva kontrolu človekom. V prípade, že systém označí fotografie, ktoré sa nezhodujú so známymi obrázkami sexuálneho zneužívania detí, účet nebude deaktivovaný a do NCMEC sa nepošle žiadna správa.

An otvorený list kritika spoločnosti Apple a výzva spoločnosti, aby okamžite zastavila svoj plán nasadiť detekciu CSAM, získala v čase písania viac ako 7 000 podpisov. Vedúci WhatsApp má tiež zavážil do diskusie .

Tagy: Apple súkromie , Apple funkcie ochrany detí