AI-baas hekelt de hype: 'We kunnen de verwachtingen nog niet waarmaken'
De topman van het AI-bedrijf OpenAI tempert de verwachtingen over GPT-4, de volgende versie van het taalmodel achter de populaire chatbot ChatGPT. "Mensen zullen teleurgesteld zijn."
De nieuwe versie van OpenAI’s taalmodel, GPT-4, wordt volgens ceo Sam Altman in de eerste helft van dit jaar uitgebracht. "Zodra we er zeker van zijn dat we het veilig en verantwoord kunnen doen", zei Altman in een interview op een Amerikaans congres.
GPT-3 verscheen in 2020 en de verbeterde versie 3.5 is gebruikt om de veelbesproken chatbot ChatGPT te maken. Die chatbot is sinds eind november al door miljoenen mensen gebruikt. Microsoft, een grote investeerder in OpenAI, laat bedrijven de software binnenkort ook gebruiken via zijn cloudplatform.
ChatGPT kan met natuurlijk taalgebruik antwoord geven op vragen en teksten in meerdere genres genereren. De gratis online-tool is ook populair onder scholieren, die hun schoolopdrachten door de software laten schrijven.
'Nog niet in de buurt van de mens'
In Silicon Valley en de AI-wereld zijn de verwachtingen over GPT-4 hooggespannen. Maar volgens Altman is er sprake van een 'hype' rond zijn bedrijf. "De geruchten zijn belachelijk. Mensen vragen erom teleurgesteld te worden en dat zullen ze straks dus ook zijn. We hebben nog geen echte 'kunstmatige algemene intelligentie', zoals er nu van ons wordt verwacht."
Bij 'kunstmatige algemene intelligentie' heeft AI-software vergelijkbare intellectuele capaciteiten als mensen. "Wanneer dat wel gebeurt, is lastig te zeggen. Het wordt meer een geleidelijke overgang", zegt Altman.
'Onderwijs moet zich aanpassen'
OpenAI gaat volgens Altman ook proberen om leraren te helpen met het detecteren van teksten die leerlingen met GPT hebben gemaakt. Maar op de lange termijn is dat volgens hem onmogelijk. "We zijn nu in een nieuwe wereld. Gegenereerde tekst is iets waar we ons allemaal aan moeten aanpassen. We hebben ons eerder ook aangepast aan rekenmachines, waardoor de wiskundelessen anders werden. Zoiets gaat nu gebeuren rond schrijven."
Concurrentie voor Google
AI-systemen zoals ChatGPT zouden een concurrentie kunnen vormen voor Google, doordat gebruikers direct antwoorden op hun vragen krijgen en niet hoeven doorklikken naar websites waar ze die antwoorden kunnen vinden. Microsoft, een van de grote investeerders in OpenAI, zou binnenkort een ChatGPT-functie willen toevoegen aan zijn zoekmachine Bing.
Maar Altman denkt dat Google ‘een tegenzet’ zal doen. "Ze zijn behoorlijk slim, behoorlijk bekwaam. Er zal zeker een verandering komen voor zoeken op internet, maar het zal niet zo ingrijpend zijn als sommige mensen nu denken."
Video’s genereren met AI
Na tools om teksten en afbeeldingen te genereren werkt OpenAI inmiddels ook aan een AI-model voor het genereren van video’s op basis van geschreven commando’s. Wanneer de eerste versie van die generatieve video-AI wordt uitgebracht, wil hij nog niet zeggen.
AI's met verschillende waarden
Andere techbedrijven werken aan vergelijkbare taalmodellen als GPT. De verschillen tussen de systemen zullen volgens Altman vooral zitten in de 'waarden' die ze hanteren. "Je krijgt bijvoorbeeld een model dat nooit iets beledigends zegt en altijd 'veilig voor op het werk' is. Maar ook een gedurfder model, dat creatiever en verkennender is, maar soms dingen zegt waar je je misschien niet prettig bij voelt. Gebruikers zouden zelf moeten kunnen aangeven welke waarden ze belangrijk vinden en hoe ze willen dat een AI zich gedraagt."
AI-systemen hebben de neiging om veel sociale vooroordelen, zoals seksisme en racisme, over te nemen omdat ze zich baseren op wat mensen op internet hebben geschreven. In het verleden raakten chatbots van Microsoft en Meta in opspraak om de racistische en antisemitische uitspraken die ze deden.
Afrikaanse data-labelers
OpenAI trainde ChatGPT met enorme hoeveelheden via internet verzamelde teksten. Omdat het grotendeels om openbare webpagina’s ging, zaten er ook veel vooroordelen en ‘giftige’ opmerkingen tussen de data, waarmee het AI-model werd gevoed. Om het aantal gewelddadige, seksistische en racistische opmerkingen dat ChatGPT maakte te verminderen, besteedde OpenAI beoordelingswerk uit aan Afrikaanse medewerkers die minder dan 2 dollar per uur verdienden met het beoordelen van schadelijke berichten, meldt TIME.
OpenAI bouwde met AI een veiligheidssysteem om de ‘giftige’ content te beperken zodat de chatbot geschikter zou zijn voor gebruik door een breed publiek. Daarmee deed OpenAI iets vergelijkbaars als socialmediabedrijven zoals Facebook-moederbedrijf Meta, die met AI-systemen ongewenste, illegale en haatzaaiende uitingen kunnen detecteren.
Om dat te kunnen moest OpenAI zijn systeem voeden met gelabelde voorbeelden van onder andere geweld, haatdragende taal en seksueel misbruik. Vervolgens leerde de software om die zaken zelf te detecteren. Die detectie werd daarna ingebouwd in ChatGPT.
'Onzekere werkomstandigheden'
OpenAI stuurde vele tienduizenden tekstfragmenten naar het outsourcingbedrijf Sama, die werknemers in Kenia, Oeganda en India de teksten van labels liet voorzien. De data-labelers kregen tussen 1,32 en 2 dollar per uur betaald, schrijft TIME op basis van interne documenten en gesprekken met medewerkers.
De laagbetaalde medewerkers speelden volgens de organisatie Partnership on AI een cruciale rol bij de ontwikkeling van ChatGPT, maar deze data-experts kampen met 'onzekere werkomstandigheden'. "De ontwikkeling van AI-systemen is erg afhankelijk van deze beroepsgroep, en dat probeert men te verbergen." OpenAI erkent tegenover TIME dat de Afrikaanse Sama-medewerkers hebben meegeholpen om 'vooroordelen en schadelijke inhoud te beperken'.