Apple-topman over kinderpornoscan: 'Communicatie was niet helder'
Apple-softwaretopman Craig Federighi heeft gereageerd op de ophef over de 'scanfunctie' op iPhones om beelden van kindermisbruik op te sporen.
Apple kondigde de functie vorige week aan, waarna een storm van kritiek volgde, zelfs onder eigen personeel. Federighi zegt nu tegen The Wall Street Journal dat de communicatie rond de functie niet helder is gepresenteerd en gecommuniceerd.
"We zouden willen dat dit iets duidelijker naar buiten was gekomen, want we staan erg positief achter wat we hier doen, en we merken dat het helemaal verkeerd begrepen is", aldus Federighi. "Het bericht werd vorige week opgepakt als 'Apple scant mijn telefoon op afbeeldingen'. Dat is niet wat er aan de hand is."
'Apple juist privacyvriendelijker'
De topman onderstreept opnieuw dat het systeem van Apple alleen foto's controleert op het moment dat die van de iPhone of iPad naar iCloud worden verplaatst. Zo'n controle is bij andere clouddiensten al langer standaard, maar Apple zegt een privacyvriendelijkere methode te hebben.
Concurrenten voeren de scan volledig uit in de cloud, waardoor gebruikers volgens Apple niet kunnen weten wat er precies bekeken wordt. Bij de methode van Apple kan dat volgens Federighi wel, omdat de database waarmee de foto's worden vergeleken straks wordt ingebouwd in iOS.
Andere naaktbeelden genegeerd
Apple zoekt met zijn algoritme naar de digitale vingerafdruk van eerder gevonden beelden van kindermisbruik. Het systeem slaat daarom alleen alarm als zulke beelden worden gevonden, en niet bij andere naaktbeelden zoals porno met volwassenen, eigen naaktfoto's of beelden van mensen hun kind in bad.
Zolang een beeld niet overeenkomt met de digitale vingerafdruk van een bekend stuk misbruikmateriaal, wordt dat beeld genegeerd. Het systeem 'ziet' niet, kent geen onderscheid tussen een foto van een vis, een bloem of naakt. Het systeem zoekt naar overeenkomsten tussen de cryptografische, numerieke weergave van foto's van gebruikers en de databank met cryptografische weergaven van bekende beelden.
Pas alarm bij rond de 30 'hits'
De analyse van die beelden gebeurt volgens Federighi voor de helft op de iPhone van de gebruiker, en voor de andere helft op iCloud. Pas als het automatische systeem van Apple een aantal misbruikbeelden detecteert, wordt Apple ingeschakeld. Dat aantal ligt volgens de topman "ergens in de orde van 30 bekende pornografische beelden".
Als die grens wordt bereikt, worden de beelden in lage resolutie getoond aan controleurs van Apple. Die medewerkers hebben dan alleen toegang tot die gedetecteerde beelden, niet tot de volledige fotobibliotheek van de gebruiker. Als blijkt dat er inderdaad sprake is van kinderporno, schakelt Apple de autoriteiten in.
Meerdere controlepunten
Groot kritiekpunt op de methode van Apple is dat het de beveiliging van iPhones en iPads op een kier zou zetten, met in de toekomst mogelijke toegang voor autoritaire regimes die hun burgers willen controleren. Daar is volgens Federighi geen sprake van. "Apple zou zulke verzoeken weigeren", aldus Federighi en het bedrijf heeft het systeem volgens de topman ontworpen met 'meerdere niveaus van toezicht en controle'.
Hoe die controle er precies uitziet, vertelt Federighi niet. "Maar we hebben het systeem zo ontworpen dat je niet alleen ons of één bepaald land hoeft te vertrouwen om dit systeem te kunnen vertrouwen", aldus de topman.
De functie wordt in iOS 15 toegevoegd, en werkt voorlopig alleen voor iCloud Foto's-gebruikers in de VS.