Met deze grote update blijft ChatGPT een stapje voor op Google
Precies één dag voor het grote jaarlijkse Google-event heeft OpenAI vanavond zijn nieuwste AI-taalmodel, genaamd GPT-4o, onthuld. Hoewel het niet de best klinkende naam is, schept het nieuwe model wel een duidelijk toekomstbeeld van hoe AI op draagbare gadgets kan werken. En het beste van alles: het is gratis.
De timing van de onthulling van GPT-4o was geen toeval. OpenAI wil met het verbeterde AI-model achter ChatGPT een stapje voor blijven op Google en beschouwt zichzelf als een waardige concurrent. Een half jaar geleden heeft Google ook al eens gedemonstreerd hoe zijn AI-systeem Gemini in staat was om objecten in beeld te identificeren en gesprekken te voeren hierover op basis van veranderingen. Alleen, de video bleek achteraf niet helemaal echt te zijn; zo zouden de beelden achteraf flink bewerkt zijn.
De live-demo van OpenAI's nieuwe model speelde hier dus slim op in door de opdrachten op het podium te laten uitvoeren. Hoewel de nervositeit van de presentatoren duidelijk merkbaar was, maakte dit het geheel wel een stuk oprechter en minder gestaged.
Realistische gesprekken voeren
Wat maakt een gesprek realistisch? Je zult misschien al snel denken aan intonatie en articulatie. Hoewel deze eigenschappen door AI redelijkerwijs kunnen worden nagebootst, bleef het tot nu toe een beetje passief, waarbij je steeds moest wachten tot de virtuele assistent is uitgepraat. Nou, dat hoeft nu niet meer, want je kunt ChatGPT nu onderbreken om bijvoorbeeld een correctie door te voeren of iets anders te vragen. Op deze manier wordt het gesprek dus een stuk realistischer dan hiervoor.
Vervolgens gaat ChatGPT hier weer op verder, zonder vertraging, wat uiteindelijk ook bijdraagt aan de kwaliteit van het gesprek. Het enige noemenswaardige nadeel is hoe de virtuele stem nogal abrupt wordt afgebroken, zonder zachte overgang. Dit is het enige gedeelte dat nog niet realistisch overkomt.
Emoties interpreteren
Nog een aspect waar OpenAI mee heeft uitgepakt is de mogelijkheid om emoties toe te voegen aan antwoorden, en ook af te lezen uit de invoer van de gebruiker. Dit zorgt dus voor extra realisme, waarbij ChatGPT in staat is om levendig en natuurgetrouw te klinken. Bovendien was het zelfs in staat om op zingende wijze een verhaal te vertellen of, haast ironisch, in een robotische stijl. Het publiek was duidelijk geamuseerd, aan het gelach te horen.
Tot slot vroeg een persoon uit het publiek ook nog of ze ChatGPT de emoties konden aflezen van het gezicht van de presentator en ook dit deed het op overtuigende en realistische wijze, met daaraan toe te voegen 'mag ik vragen waarom je zo blij bent?' - een vraag die in principe niet oorspronkelijk tot de opdracht behoorde, maar het wel twee keer zo realistisch maakte.
Omgeving begrijpen
In een ander deel van de demo schotelden de presentatoren ChatGPT hun beeldscherm voor om vervolgens vragen te stellen over de inhoud. Ze begonnen met een stuk programmeercode, die ChatGPT moeiteloos leek te ontcijferen om er vervolgens conclusies uit te trekken. En ook een grafiek van temperatuur wist de chatbot te begrijpen nadat het vervolgens vragen beantwoordde over de warmste maand.
Deze voorbeelden geven aan hoe het nieuwe model in staat is om razendsnel de visuele informatie op je scherm om te zetten naar data die het kan verwerken om je vervolgens via audio verder te helpen. Daarnaast werd ChatGPT gevraagd wat er op papier werd geschreven en of het kon helpen bij een wiskundig probleem. Dit lijkt dan ook duidelijk te zijn bedoeld om te laten zien hoe het in de toekomst mogelijk een rol kan spelen in het onderwijs, en dus "mee te kijken" naar je opdrachten.
Net als de film Her?
Wie de film Her uit 2013 met Joaquin Phoenix wel eens heeft gezien, zal misschien wel de stem herkennen die OpenAI in hun demo gebruikten. Deze lijkt namelijk behoorlijk veel op dezelfde vrouwelijke stem die gebruikt wordt in de film. Het lijkt daarmee bijna te hinten dat we deze richting op gaan, tenminste, als het ligt aan OpenAI. Het bedrijf lijkt hiermee in ieder geval de weg vrij te maken voor persoonlijke assistenten.
Nu de software er is, is het vooral een kwestie van ondersteunende hardware, bijvoorbeeld een bril of smartwatch. Hoewel de demo vanavond werd gepresenteerd met behulp van een telefoon die verbonden was met een kabel voor een optimale internetverbinding, zal de praktijk moeten uitwijzen of we met onze huidige 4- en 5G-snelheden in staat zullen zijn om dezelfde responstijd als tijdens de presentatie te behalen.
Dat lijkt namelijk de enige bottleneck als het aankomt op een realistisch gesprek met een chatbot, zo is gebleken uit talloze negatieve reviews van bijvoorbeeld de gadgets Rabbit r1 en Humane AI Pin.