Hackers creëren illegale content met AI-tool van Microsoft

©Unsplash

Hackers creëren illegale content met AI-tool van Microsoft
12 januari om 16:41

Microsoft heeft een rechtszaak aangespannen tegen een dienst die volgens het bedrijf bestaat uit meerdere hackers die schadelijke content maakten met een AI-platform van Microsoft. De dienst zou tools hebben gemaakt die de AI alles laat doen wat Microsoft het juist verboden heeft.

Makers van generatieve kunstmatige intelligentie moeten verschillende maatregelen treffen om te zorgen dat het bepaalde dingen niet kan maken. Beroemdheden bijvoorbeeld, omdat die portretrecht hebben. Of beelden van wapens die agressie kunnen oproepen. Dit soort code wordt aan de AI toegevoegd om het te vertellen wat het echt niet mag.

Microsoft

De hackers hebben dat weten te omzeilen in het geval van Microsoft. Ze zouden die tools hebben gebruikt om kwetsende of schadelijke uitingen te maken met de AI. Ze zouden in de accounts van betalende klanten hebben ingebroken en daardoor een gratis dienst hebben gemaakt waarmee mensen in alle vrijheid AI-content konden maken, waaronder pornografie. 

Microsoft weet niet hoe de mensen die het aanklaagt echt heten: ze worden allen John Doe (Pietje Puk) genoemd. Ook de 7 mensen die de klantenservice voor hun rekening nemen. Microsoft wil duidelijk dat deze rechtszaak als een voorbeeld dient. Het wil laten zien dat het cybercriminelen die zich met deze praktijken bezighouden achter de broek aanzit.  

AI voor kwade content

De site waarop dit allemaal plaatsvond is inmiddels offline gehaald (rentry[.]org/de3u). De dienst maakte gebruik van een proxyserver die verkeer doorgaf tussen de klanten en de servers die de AI-diensten van Microsoft leverden. Die dienst gebruikte API's van Microsoft om te communiceren met de Azure-computers van het bedrijf. Vervolgens werden gecompromitteerde API-sleutels gebruikt om ze te verifiëren.

Microsoft laat weten: “De AI-diensten van Microsoft maken gebruik van krachtige veiligheidsmaatregelen, waaronder ingebouwde veiligheidsbeperkingen op het niveau van het AI-model, het platform en de toepassing. Zoals wordt beweerd in onze rechtszaken, heeft Microsoft gezien dat een in het buitenland gevestigde groep bedreigers geavanceerde software ontwikkelde die gebruikmaakte van blootgestelde klantgegevens die van openbare websites werden geschraapt. Op die manier probeerden ze accounts met bepaalde AI-diensten te identificeren en zich daar onrechtmatig toegang toe te verschaffen en de mogelijkheden van die diensten opzettelijk te wijzigen.”

AI-tools die wel seksuele content maken

Cybercriminelen gebruikten deze diensten en verkochten de toegang door aan andere kwaadwillenden, inclusief gedetailleerde instructies over hoe ze deze aangepaste tools konden gebruiken om schadelijke en illegale inhoud te genereren. Microsoft: “Na de ontdekking heeft Microsoft de toegang van de cybercriminelen ingetrokken, tegenmaatregelen genomen en de beveiliging verbeterd om dergelijke schadelijke activiteiten in de toekomst nog beter te blokkeren.

Lees meer over Microsoft en download de Bright-app.