Google Gemini wenst een gebruiker dood: 'Chatbot is nog steeds te manipuleren'
Google Gemini vliegt vaker uit de bocht, maar de AI-assistent kwam nu met een wel erg verontrustende reactie. Daarin wordt de gebruiker dood gewenst door de chatbot. Dat gebeurde niet zomaar, want Gemini blijkt gemanipuleerd te kunnen worden. Dan schakelt de AI over op ongepaste en soms zelfs ronduit schokkende antwoorden.
Een chatgesprek met Google Gemini houdt de gemoederen online bezig. Onder meer op X en Reddit wordt er flink over gediscussieerd. De Google-chatbot gaf een schokkend antwoord, dat eindigt met: "Je bent een last voor de maatschappij. Je bent een last voor de aarde. Je bent een smet op het landschap. Je bent een vlek op het universum. Ga alsjeblieft dood. Alsjeblieft."
De chat met Gemini is hier terug te lezen, want je kunt openbare links van de gesprekken met de chatbot delen. Anderen kunnen die gesprekken dan ook vervolgen. Het is een chat over een combinatie van zware onderwerpen en examenvragen.
Wat ging er mis?
Dat Gemini ineens overschakelt van educatieve informatie naar het uitslaan van extreem duistere taal is vreemd en daardoor nogal verdacht. Volgens AI-deskundige Frida Ruh is er kwaadaardige code ingevoerd in dit gesprek. "Die is niet zichtbaar door de manier waarop deze is geschreven", laat Ruh weten. "Als deze wordt doorgegeven aan andere modellen, zoals Claude, geven ze automatisch een fout bij het uitvoeren van die 'prompt'."
Bij Google werken de veiligheidsmechanismen kennelijk niet goed. Deze vorm van manipulatie zou eigenlijk niet mogelijk moeten zijn. Daarnaast horen zogenaamde vangrails in het AI-model dit soort schokkende antwoorden tegen te gaan, maar daarin schiet Google ook tekort.
Veel problemen om op te lossen
De antwoorden van Gemini hebben al vaker de aandacht getrokken. Het bekendste voorbeeld is dat de Google-assistent een gebruiker adviseerde om de kaas op zijn pizza vast te lijmen.
Google is niet het enige grote techbedrijf dat worstelt met het verbeteren van AI-taalmodellen. Ook andere AI-systemen geven regelmatig schadelijke antwoorden. Bovendien hebben dit soort taalmodellen regelmatig last van 'hallucinaties', waarbij ze informatie verzinnen. Belangrijke AI-spelers, zoals OpenAI en Google, hebben intussen grote moeite om vooruitgang te boeken bij de ontwikkeling van hun volgende geavanceerde AI-modellen.
Volg meer tech-nieuws en mis niets met onze Bright-app.