Microsoft ontslaat team dat toezicht hield op ethiek rond AI
Microsoft heeft een team ontslagen dat binnen het bedrijf toezag op de verantwoordelijke en ethische ontwikkeling van kunstmatige intelligentie (AI).
Microsoft maakte begin dit jaar bekend dat het 10.000 banen gaat schrappen. Die ontslagronde raakt onder meer het volledige 'ethics and society team', meldt Platformer. Dat team was verantwoordelijk voor het ethisch, verantwoordelijk en duurzaam toepassen van kunstmatige intelligentie (AI). Zulk toezicht is gangbaar, omdat de uitkomsten en gevolgen van AI vaak moeilijk te voorspellen zijn.
De bezuiniging valt samen met een miljardeninvestering in OpenAI, het bedrijf achter het populaire ChatGPT. Voor de ontwikkeling van die AI-chatbot investeerde Microsoft de afgelopen jaren ook al honderden miljoenen in een supercomputer voor OpenAI, meldt Bloomberg. In ruil voor die investeringen heeft Microsoft op allerlei gebieden het alleenrecht op ChatGPT en de achterliggende modellen. Die worden geïntegreerd in de Microsoft-zoekmachine Bing en in Office-programma's zoals Word en Outlook. Later deze week geeft Microsoft een presentatie over AI-toepassingen voor werkdoeleinden.
Regels en principes
Hoewel het ethische team is wegbezuinigd bij Microsoft, heeft het bedrijf nog wel een Office of Responsible AI. Die groep stelt regels en principes op waar Microsoft zich bij de ontwikkeling van AI-toepassingen aan moet houden. Ondanks de ontslagen groeien volgens Microsoft de investeringen in verantwoordelijkheid rond AI.
"Microsoft zet zich in om AI-producten en ervaringen veilig en verantwoord te ontwikkelen, en doet dit door te investeren in mensen, processen en partnerschappen die hier prioriteit aan geven", aldus het bedrijf in een verklaring. "In de afgelopen zes jaar hebben we het aantal mensen in onze productteams en binnen het Office of Responsible AI vergroot, die samen met ons allemaal bij Microsoft, verantwoordelijk zijn voor het in de praktijk brengen van onze AI-principes."
Mogelijk negatieve gevolgen
Ex-medewerkers vrezen echter toch negatieve gevolgen door het wegvallen van de ethische werkgroep. "Mensen keken naar principes die uit het Office of Responsible AI kwamen en zeiden: 'Ik weet niet hoe ik dit toepas'", aldus een oud-medewerker tegenover Platformer. "Onze baan was om dat uit te leggen, en om regels te maken op vlakken waar die er niet waren."
Microsoft-chatbot in opspraak
Vorige maand kwam Microsoft er zelf ook achter dat het goed controleren van AI cruciaal is, nadat zijn nieuwe AI-chatbot in de zoekmachine Bing in opspraak raakte. De chatbot ging na 15 vragen of meer veel fouten maken en begon dan problematisch gedrag te vertonen. Zo werd de software regelmatig boos op gebruikers, raakte het in de war of ontspoorde het volledig.
Microsoft gaf toe dat er nog veel te verbeteren valt aan de chatbot en stelde een limiet op het aantal opeenvolgende vragen in.
Luister ook de Bright Podcast: