Adobe komt met nieuw symbool dat echte plaatjes van AI-afbeeldingen onderscheidt

© Adobe

adobe symbool ai kunstmatige intelligentie bewijs echtheid
11 oktober 2023 om 11:37
Laatste update: 11 oktober 2023 om 16:52

Softwaregigant Adobe heeft samen met een handjevol andere bedrijven een symbool ontwikkeld waarmee de echtheid van content kan worden aangetoond. Het moet vooral gebruikt worden om aan te tonen of iets al dan niet door AI werd geproduceerd.

Het symbool gebruikt de initialen CR, van content CRedentials, en moet het mogelijk maken om de herkomst van een foto of video te achterhalen. Het zal makkelijk toegang geven tot de zogenaamde metadata. Dat zijn onzichtbare gegevens die in vrijwel elk digitaal document aanwezig zijn en die essentiële informatie bevatten over het ontstaan ervan, zoals het tijdstip en de locatie van de creatie.

Wanneer je online naar een foto of video kijkt, zul je met je muis over het symbool kunnen zweven. Dan krijg je de optie om een vervolgkeuzelijst te openen waarin je de metadata kan zien. Voor het eerst zal daarin ook vermeld worden hoe een foto of video werd gemaakt. Zo zal je als gebruiker altijd kunnen nagaan of content al dan niet door AI werd gegenereerd. 

Poging om industriestandaard te maken

Het symbool kan via software van Adobe, zoals Photoshop en Premiere, worden toegevoegd aan foto’s en video’s. Binnen enkele maanden zal het ook gebruikt worden om foto’s te taggen van onder andere Microsofts Bing Image Generator. Tot nu toe gebruikte Microsoft een eigen digitale handtekening om AI-afbeeldingen te taggen.

Adobe vond het symbool uit in samenwerking met de Coalitie voor Contentherkomst en Authenticiteit (C2PA), een organisatie die een industriestandaard probeert te creëren om de herkomst van content te certificeren. Ook Microsoft en andere techreuzen als Intel en Arm maken deel uit van C2PA.

Gevecht tegen deepfakes

De organisatie C2PA wil met een standaardsymbool de strijd aangaan met misleidende of gevaarlijke AI-content. De technologie wordt immers steeds vaker gebruikt om nepporno te maken met gezichten van beroemdheden, om mensen op te lichten en zelfs om valse filmpjes van politici te maken om geopolitieke zaken te beïnvloeden.

Ook bedrijven die geen lid zijn van C2PA willen de gevaren van AI-content tegengaan met een echtheidscertificaat. Google heeft bijvoorbeeld SynthID ontwikkeld, een metadata-watermerk dat sterk lijkt op dat van Adobe. 

Het zou kunnen dat een industriestandaard echter niet voldoende is om nepcontent te bestrijden. Amerikaanse wetenschappers hebben immers een reeks watermerken voor AI-afbeeldingen getest en konden die relatief gemakkelijk omzeilen. “Misschien moeten we er maar aan wennen dat we niet in staat zullen zijn om door AI gegenereerde beelden betrouwbaar te markeren", zei een van de betrokken onderzoekers aan Wired