OpenAI onthult een grote AI-update waarmee het Google voor wil blijven

©Bright

OpenAI onthult ChatGPT-o3 als nieuw wapen tegen Google
20 december om 20:31
Laatste update: 20 december om 23:18

OpenAI heeft zijn nieuwste model aangekondigd: ChatGPT-o3. Het nieuwe AI-model zou beter in staat zijn om te redeneren en puzzels op te lossen. Het bedrijf zet hiermee weer een stap in de richting van AGI, kunstmatige algemene intelligentie.

Nog maar een paar weken geleden lanceerde OpenAI zijn vorige AI-modellen, o1 en o1 mini, voor het grote publiek. Nu komt het bedrijf alweer met zijn volgende model: o3. Daarmee slaat het bedrijf de o2 dus over. Het nieuwe model zou nog beter in staat moeten zijn om te redeneren. Dit is nuttig bij zowel het oplossen van puzzels die het nog nooit eerder heeft gezien als het schrijven van programmacode.

Het komt ook van pas bij het beoordelen van zijn eigen prestaties en het detecteren van 'onveilige' opdrachten die gebruikers proberen door te voeren. Hiermee zet OpenAI weer een stap in de richting van AGI, kunstmatige algemene intelligentie, dat qua capaciteiten veel dichter bij de mens in de buurt moet komen dan de huidige AI-modellen.

Nieuwe maatstaven nodig

Tijdens een livestream legde OpenAI uit dat er nieuwe meeteenheden of ‘benchmarks’ moesten worden toegepast vanwege de intelligente aard van het nieuwe model. Daarom werkte OpenAI samen met ARC-AGI, dat een test ontwikkelde om computers schijnbaar eenvoudige puzzels op te laten lossen. Volgens de oprichter van het ARC-initiatief zat de uitdaging in het feit dat elke puzzel een unieke opdracht bevatte, waardoor het AI-model telkens opnieuw moest "nadenken" over de uitkomst, net zoals mensen dat doen.

De resultaten waren volgens ARC-oprichter François Chollet opvallend: het nieuwe o3-model behaalde een score van 87,5 procent, net iets hoger dan menselijke kandidaten. Betekent dit dat AGI is bereikt?

Gehaast richting AGI

Strikt genomen wordt AGI, oftewel 'kunstmatige algemene intelligentie', gedefinieerd als hoogwaardige autonome systemen die beter presteren dan mensen in de meeste economisch waardevolle werkzaamheden. Toch blijft deze definitie vatbaar voor interpretatie. Mogelijk heeft OpenAI daarom besloten de test van ARC-AGI bij de presentatie te betrekken, zodat het bedrijf nu kan stellen dat zijn nieuwe model volgens objectieve maatstaven beter functioneert dan mensen. De vraag blijft echter of die test voldoende representatief is om als maatstaf voor AGI te dienen.

Als OpenAI aantoont AGI te hebben bereikt, hoeft het zijn meest geavanceerde technologie niet meer te delen met Microsoft. De vraag is of dat moment volgens OpenAI is bereikt.

Google een stapje voor

Een mogelijke verklaring voor de naam o3, in plaats van o2, is dat Google onlangs zijn tweede versie van Gemini aankondigde. Het kan zijn dat OpenAI de indruk wil wekken dat het zijn concurrent dus alweer een stap voor is – ondanks het feit dat die nummering niet klopt. Bovendien zal het even duren voordat Google Gemini 3 aankondigt, waardoor ChatGPT in de tussentijd dus suggereert voorop te lopen.

Het kan natuurlijk ook gewoon zijn dat OpenAI slecht is in het bedenken van namen. Het bedrijf kwam eerder al met "ChatGPT 3.5", "Turbo" en "ChatGPT 4o", waarna het plots overging op "o1". Volgens OpenAI-CEO Sam Altman zou de keuze voor "o3" echter te maken hebben met rechten op de merknaam 'O2' in het Verenigd Koninkrijk, waar O2 een van de grootste telecomproviders is.

Veiligheid outsourcen

Opvallend is dat de redeneerfuncties van het nieuwe model niet alleen worden gebruikt om betere antwoorden te geven, maar ook om te controleren of het met een "onveilige opdracht" te maken heeft, wat dat dan ook mag betekenen. De functie, genaamd deliberate alignment (‘opzettelijke uitlijning’), zou het model minder vatbaar maken voor manipulatie.

De toepassing roept echter vragen op over de intenties van OpenAI, dat hiermee lijkt te suggereren dat het de veiligheidscontrole wil uitbesteden aan het model zelf. Daarnaast riep het bedrijf externe ontwikkelaars op, zij het met weinig enthousiasme, om bij te dragen aan het testen van de veiligheid.

Het lijkt dan ook opnieuw een poging om ethische verantwoordelijkheden af te schuiven. OpenAI lag eerder onder vuur nadat bleek dat verschillende veiligheidsonderzoekers het bedrijf hadden verlaten, omdat zij vonden dat hun inspanningen intern onvoldoende aandacht en budget kregen.

Volg meer AI-nieuws en mis niets met de Bright-app.