Apple News

Apple predstavuje nové funkcie pre bezpečnosť detí, vrátane skenovania knižníc fotografií používateľov, či neobsahujú známy materiál so sexuálnym zneužívaním

Štvrtok 5. augusta 2021 13:00 PDT od Joea Rossignola

Apple dnes prezreli si nové bezpečnostné prvky pre deti ktorý príde na svoje platformy s aktualizáciami softvéru koncom tohto roka. Spoločnosť uviedla, že funkcie budú dostupné v USA len pri uvedení na trh a postupom času sa rozšíria do ďalších regiónov.





iphone komunikačná bezpečnostná funkcia

Bezpečnosť komunikácie

Po prvé, aplikácia Správy na zariadeniach iPhone, iPad a Mac dostane novú funkciu Bezpečnosť komunikácie, ktorá varuje deti a ich rodičov pri prijímaní alebo odosielaní sexuálne explicitných fotografií. Apple uviedol, že aplikácia Správy bude používať strojové učenie na zariadení na analýzu obrázkových príloh a ak sa zistí, že fotografia je sexuálne explicitná, fotografia bude automaticky rozmazaná a dieťa bude upozornené.



ako nastaviť živú fotografiu ako tapetu na ipad

Keď sa dieťa pokúsi zobraziť fotografiu označenú ako citlivú v aplikácii Správy, bude upozornené, že fotografia môže obsahovať súkromné ​​časti tela a že fotografia môže byť zraňujúca. V závislosti od veku dieťaťa bude k dispozícii aj možnosť, aby rodičia dostali upozornenie, ak ich dieťa pristúpi k prezeraniu citlivej fotografie alebo ak sa po upozornení rozhodne poslať sexuálne explicitnú fotografiu inému kontaktu.

Apple uviedol, že nová funkcia Bezpečnosť komunikácie bude k dispozícii v aktualizáciách pre iOS 15, iPadOS 15 a macOS Monterey neskôr v tomto roku pre účty nastavené ako rodiny v iCloude. Apple zaistil, že konverzácie iMessage zostanú chránené šifrovaním typu end-to-end, vďaka čomu je súkromná komunikácia pre Apple nečitateľná.

Skenovanie fotografií kvôli materiálu sexuálneho zneužívania detí (CSAM)

Po druhé, počnúc týmto rokom so systémami iOS 15 a iPadOS 15 bude spoločnosť Apple schopná detekovať známe obrázky materiálu sexuálneho zneužívania detí (CSAM) uložené v iCloud Photos, čo spoločnosti Apple umožní nahlásiť tieto prípady Národnému centru pre nezvestné a zneužívané deti (NCMEC). , nezisková organizácia, ktorá spolupracuje s americkými orgánmi činnými v trestnom konaní.

Apple uviedol, že jeho metóda zisťovania známeho sexuálneho zneužívania detí je navrhnutá s ohľadom na súkromie používateľov. Namiesto skenovania obrázkov v cloude spoločnosť Apple uviedla, že systém vykoná porovnávanie na zariadení s databázou známych hašov obrázkov CSAM poskytnutých NCMEC a ďalšími organizáciami pre bezpečnosť detí. Apple uviedol, že bude ďalej transformovať túto databázu na nečitateľnú sadu hash, ktorá je bezpečne uložená na zariadeniach používateľov.

Hašovacia technológia s názvom NeuralHash analyzuje obrázok a konvertuje ho na jedinečné číslo špecifické pre tento obrázok, tvrdí Apple.

„Hlavným účelom hashu je zabezpečiť, aby identické a vizuálne podobné obrázky viedli k rovnakému hashu, zatiaľ čo obrázky, ktoré sa navzájom líšia, vedú k rôznym hashom,“ uviedol Apple v novej bielej knihe „Expanded Protections for Children“. 'Napríklad obrázok, ktorý bol mierne orezaný, zmenená veľkosť alebo prevedený z farebného na čiernobiely, sa spracuje rovnako ako jeho originál a má rovnaký hash.'

vývojový diagram apple csam
Predtým, ako sa obrázok uloží do iCloud Photos, spoločnosť Apple uviedla, že pre tento obrázok sa vykoná proces porovnávania na zariadení s nečitateľnou sadou známych hashov CSAM. Ak sa nájde zhoda, zariadenie vytvorí kryptografický bezpečnostný poukaz. Tento kupón sa nahrá do iCloud Photos spolu s obrázkom a po prekročení nezverejneného prahu zhôd je spoločnosť Apple schopná interpretovať obsah voucherov pre zápasy sexuálneho zneužívania detí. Apple potom manuálne skontroluje každú správu, aby potvrdil, že existuje zhoda, deaktivuje používateľský účet iCloud a odošle správu NCMEC. Apple nezverejňuje, aká je jej presná hranica, ale zabezpečuje „extrémne vysokú úroveň presnosti“, aby účty neboli nesprávne označené.

Apple uviedol, že jeho metóda zisťovania známeho sexuálneho zneužívania detí poskytuje „významné výhody v oblasti ochrany súkromia“ v porovnaní s existujúcimi technikami:

• Tento systém predstavuje efektívny spôsob identifikácie známeho sexuálneho zneužívania detí (CSAM) uložených v účtoch iCloud Photos a zároveň chráni súkromie používateľov.
• V rámci tohto procesu sa používatelia tiež nemôžu dozvedieť nič o súbore známych obrázkov zobrazujúcich sexuálne zneužívanie detí, ktoré sa používajú na porovnávanie. To chráni obsah databázy pred zneužitím.
• Systém je veľmi presný, s extrémne nízkou chybovosťou menej ako jeden z biliónov účtov za rok.
• Systém výrazne viac chráni súkromie ako skenovanie v cloude, pretože hlási iba používateľov, ktorí majú v iCloud Fotkách uloženú zbierku známych materiálov zobrazujúcich sexuálne zneužívanie detí.

Základná technológia systému Apple je pomerne zložitá a zverejnila a technické zhrnutie s ďalšími podrobnosťami.

„Rozšírená ochrana od spoločnosti Apple pre deti mení hru. Keďže produkty Apple používa toľko ľudí, tieto nové bezpečnostné opatrenia majú potenciál záchrany života pre deti, ktoré sú lákané online a ktorých strašné obrázky kolujú v materiáli o sexuálnom zneužívaní detí,“ povedal John Clark, prezident a generálny riaditeľ Národného centra pre nezvestných. & zneužívané deti. „V Národnom centre pre nezvestné a zneužívané deti vieme, že proti tomuto zločinu možno bojovať len vtedy, ak budeme vytrvalí v našom odhodlaní chrániť deti. Môžeme to urobiť len preto, že technologickí partneri, ako je Apple, zintenzívnia a dajú najavo svoje odhodlanie. Realita je taká, že súkromie a ochrana detí môžu existovať súčasne. Tlieskame spoločnosti Apple a tešíme sa na spoločnú prácu, aby bol tento svet bezpečnejším miestom pre deti.“

Rozšírené usmernenia týkajúce sa sexuálneho zneužívania detí v Siri a vo vyhľadávaní

iphone csam siri
Po tretie, Apple uviedol, že rozšíri poradenstvo v Siri a Spotlight Search naprieč zariadeniami tým, že poskytne ďalšie zdroje, ktoré pomôžu deťom a rodičom zostať v bezpečí online a získať pomoc v nebezpečných situáciách. Napríklad používatelia, ktorí sa pýtajú Siri, ako môžu nahlásiť sexuálne zneužívanie detí (CSAM) alebo zneužívanie detí, budú presmerovaní na zdroje, kde a ako podať oznámenie.

Aktualizácie Siri a Search prídu neskôr v tomto roku v aktualizácii na iOS 15, iPadOS 15, watchOS 8 a macOS Monterey, podľa Apple.

Poznámka: Vzhľadom na politický alebo spoločenský charakter diskusie na túto tému sa diskusné vlákno nachádza v našom Politické správy fórum. Všetci členovia fóra a návštevníci stránky sú vítaní, aby si prečítali a sledovali vlákno, ale uverejňovanie je obmedzené na členov fóra s najmenej 100 príspevkami.

Tagy: Apple súkromie , Apple funkcie ochrany detí