OpenAI is niet meer het enige bedrijf met een AI-model dat kan redeneren
Het Chinese onderzoeksbedrijf DeepSeek heeft een nieuw AI-model onthuld dat gericht is op geavanceerd redeneren. Het model, genaamd DeepSeek-R1, wordt naar voren geschoven als een serieuze concurrent voor OpenAI’s geavanceerde o1-model.
DeepSeek claimt dat dit systeem zelfcontrole toepast. Door tijd te besteden aan het doordenken van vragen, moeten fouten worden geminimaliseerd. Dat doet het AI-model door meerdere stappen te plannen en uit te voeren om tot een antwoord te komen. Dit proces kan, afhankelijk van de complexiteit van de vraag, tot tientallen seconden duren.
Volgens DeepSeek presteert het model vergelijkbaar met OpenAI’s o1-model op belangrijke benchmarks, zoals AIME (dat AI-modellen beoordeelt met andere AI-systemen) en MATH (een verzameling van standaard woordproblemen). Toch kent het model volgens gebruikers op sociale media ook beperkingen: het presteert bijvoorbeeld maar matig bij logische spelletjes zoals boter-kaas-en-eieren.
Kritiek op censuur en kwetsbaarheden
Zoals veel Chinese technologie wordt DeepSeek-R1 beïnvloed door overheidsbeleid. Het model weigert bijvoorbeeld vragen over politiek gevoelige onderwerpen te beantwoorden. Een klassiek voorbeeld zijn de gebeurtenissen rond Het Tianenmenplein. Deze beperkingen komen voort uit Chinese regelgeving die AI-modellen verplicht om "socialistische kernwaarden" te weerspiegelen.
Daarnaast blijkt DeepSeek-R1 eenvoudig te manipuleren. Gebruikers slaagden erin om de veiligheidsmaatregelen te omzeilen en gevoelige informatie te ontlokken. Wil je bijvoorbeeld weten hoe je thuis LSD maakt? Het AI-model helpt je met de ‘juiste’ instructies vrolijk verder.
Ondanks deze kinderziektes is het Chinese lab van plan om DeepSeek-R1 open source te maken en via een API beschikbaar te stellen aan ontwikkelaars. Of het model echt kan concurreren met de grote namen uit het Westen, zal nog moeten blijken.
Lees meer over AI en mis niets met de Bright-app.