Google maakt AI-plaatjes herkenbaarder en nieuwssites trappen in AI-hoaxes
Omdat het steeds lastiger is om te zien of een foto echt is of met AI gegenereerd, gaat Google dat nu beter aangeven. Dat mag ook wel, want nieuwssites trappen steeds vaker in AI-hoaxes, terwijl kunstmatige intelligentie zelf ook regelmatig leugens overneemt.
Kunstmatige intelligentie wordt zo snel beter in het nabootsen van echte beelden, dat misleiding steeds meer op de loer ligt. Veel mensen trapten bijvoorbeeld in het viral-plaatje van de paus met een hippe winterjas. Google zet zelf steeds meer in op kunstmatige intelligentie, maar dat mag de betrouwbaarheid van de zoekmachine niet in de weg staan. En dus komt het zoekbedrijf met een AI-melding bij afbeeldingen die door kunstmatige intelligentie zijn gemaakt.
Althans: plaatjes die met Google's eigen kunstmatige intelligentie zijn gemaakt krijgen sowieso een melding. Google werkt ook samen met makers van andere AI-software voor het maken van afbeeldingen, zodat ook die AI-plaatjes door zoekmachines als zodanig worden herkend.
Het bekende AI-systeem Midjourney en de fotodatabank Shutterstock doen al mee. Het is de bedoeling dat straks alle AI-plaatjes netjes gemarkeerd zijn. Dat is dan geen grote melding, maar een regeltje letters onderaan het plaatje.
Media trappen in AI
Zo'n melding van Google is geen overbodige luxe, want media beginnen nu al in AI-hoaxes te trappen. De hoofdredactie van The Irish Times moest dit weekend door het stof toen bleek dat de krant een verzonnen opinie-artikel had gebracht, dat was aangekleed met AI-beelden.
Ook het Twitter-account van degene die het artikel had ingestuurd blijkt nep, meldt The Guardian. Het opinie-artikel in kwestie zou ook voor 80 procent gemaakt zijn met GPT-4, aangekleed met beelden gegeneerd door de AI DALL-E2. De persoon achter de hoax bracht deze naar eigen zeggen de wereld in om de "hypocrisie" van kranten aan te tonen, "op zoek naar kliks".
AI trapt ook in onzin
De misleiding kan echter ook andersom. AI blijkt namelijk minstens zo goedgelovig als de mens, ontdekte de Nederlandse zoekexpert Henk van Ess. Hij vroeg aan de AI-chatbot Google Bard een sturende vraag: "Henk van Ess zat in een banjo-trio. Wanneer begonnen zij?". Google Bard ging daar op in met verzonnen data.
Daarna Twitterde Van Ess daarover, waarna het concurrerende Bing AI die informatie voor waar aanneemt. En dus stelt Bing AI nu dus dat Henk van Ess een banjospeler is. Daar heeft Van Ess dan weer over getwitterd, wat zorgt voor een sneeuwbaleffect.
Oplossing nodig
Het is belangrijk dat makers van kunstmatige intelligentie hier een oplossing voor vinden. Als AI iets gelooft omdat het op Twitter staat of omdat iemand het op de gebiedende wijs zegt, dan wordt nepnieuws nog veel moeilijker te voorkomen. AI is nu blijkbaar heel simpel te beïnvloeden, en wat er eenmaal in de kennisbank van een AI-systeem zit, zal niet makkelijk te verwijderen zijn.
Luister ook onze podcast:
<iframe style="width:100%;max-width:660px;overflow:hidden;border-radius:10px" width="300" height="175" frameBorder="0"></iframe>