Apple stelt 'kinderpornoscan' iPhones uit
Apple gaat voorlopig geen iPhones en iPads 'scannen' op bekende kindermisbruikbeelden. De functie zou binnenkort via een update worden toegevoegd, maar Apple heeft na een storm van kritiek besloten de functie uit te stellen.
Apple kondigde de nieuwe functie, bedoeld om kinderen te beschermen en verspreiding van kinderporno tegen te gaan, eerder deze maand aan. "Op basis van feedback van klanten, belangengroepen, onderzoekers en anderen hebben we besloten om de komende maanden extra tijd te nemen om input te verzamelen en verbeteringen aan te brengen, voordat deze belangrijke veiligheidsfuncties worden vrijgegeven", aldus Apple in een verklaring.
Apple wilde de nieuwe 'scan' binnenkort in de VS toevoegen in iOS 15. Als foto's naar de backupdienst iCloud Foto’s zouden worden verstuurd, zouden deze worden vergeleken met een database van bekende beelden van kindermisbruik.
Veel kritiek
Na de aankondiging volgde een storm van kritiek, ook onder het eigen personeel. Onder meer beveiligingsexperts, privacy-activisten en juristen wezen Apple op de gevaren van zo'n 'scan' voor de privacy en beveiliging van gebruikers.
Een groot kritiekpunt op de methode van Apple is dat het de beveiliging van iPhones en iPads op een kier zou zetten. Ook loopt Apple het risico dat autoritaire regimes kunnen eisen om op een vergelijkbare manier foto's van gebruikers op allerlei andere zaken te 'scannen'. Apple heeft meermaals gezegd zulke verzoeken te weigeren.
Digitale vingerafdruk
Bedrijven als Amazon en Facebook scannen al langer beelden van gebruikers zodra zij die online zetten, zowel openbaar als in een afgeschermde cloudopslag. De methode van Apple is wel nieuw, omdat de controle deels plaatsvindt op het apparaat van de gebruiker zelf in plaats van in de cloud.
Apple zoekt met zijn algoritme naar de digitale vingerafdruk van eerder gevonden beelden van kindermisbruik. Het systeem slaat daarom alleen alarm als zulke beelden worden gevonden. Dat zou niet gebeuren bij andere naaktbeelden, zoals porno, eigen naaktfoto's of foto's van mensen en hun kind in bad.
Zolang een beeld niet overeenkomt met de digitale vingerafdruk van bekend misbruikmateriaal, wordt dat beeld genegeerd. Het systeem 'ziet' niet, kent geen onderscheid tussen een foto van een vis, een bloem of naakt. Het systeem zoekt naar overeenkomsten tussen de cryptografische, numerieke weergave van foto's van gebruikers en de databank met cryptografische weergaven van bekende beelden.
Medewerkers
Apple stelde dat het systeem bij detectie van zo'n 30 bekende misbruikbeelden alarm zou slaan. De beelden zouden dan in lage resolutie worden getoond aan controleurs van het bedrijf. Die medewerkers zouden alleen toegang tot die gedetecteerde beelden hebben, niet tot de volledige fotobibliotheek van de gebruiker. Als er sprake is van kinderporno, schakelt Apple de autoriteiten in.
Een Apple-topman gaf vorige maand al toe dat de communicatie over de nieuwe functie 'niet helder genoeg' was geweest.
Later bleek dat Apple sinds 2019 al bijlagen van iCloud Mail scant op mogelijke kindermisbruikbeelden. Het gaat om de bijlagen van zowel verzonden als ontvangen e-mails via het e-mailplatform.