Kunstmatige intelligentie zorgt voor nieuwe baan: 'AI-fluisteraar' in opkomst
De verwachting is dat kunstmatige intelligentie (AI) op termijn banen kan gaan kosten: een bekend gevolg van automatisering. Nieuwe banen ontstaan er ook, want de 'AI-fluisteraar' is in opkomst.
Kunstmatige intelligentie (AI) die een bruikbaar resultaat levert na een simpele opdracht is sinds een paar maanden werkelijkheid. Vooral 'chatbot' ChatGPT valt op door de overtuigende antwoorden op allerlei vragen, maar inmiddels ook in negatieve zin. Wie namelijk te lang doorvraagt, kan kunstmatige intelligentie laten ontsporen, zo bleek bij de nieuwe Microsoft-chatbot. De overtuigende en redelijk betrouwbare antwoorden veranderen dan van toon en inhoud. Microsoft hanteert inmiddels een limiet op het aantal opeenvolgende vragen om dit te voorkomen.
Om te zorgen dat AI beter en betrouwbaarder wordt, krijgt een nieuwe tak van programmeren nu meer aandacht. De zogenoemde 'prompt editor' oftewel 'AI-fluisteraar' is iemand die in normale spreek- of schrijftaal 'overlegt' met kunstmatige intelligentie. Deze mensen zijn op zoek naar de tekortkomingen van AI, de punten waarop systemen in de war raken. Als ze die punten vinden, praten ze als het ware in op de AI om te zorgen dat die zich verbetert, meldt The Washington Post, die sprak met zulke 'fluisteraars'.
'Programmeren' in gewone taal
"De populairste nieuwe programmeertaal is Engels", twitterde voormalig AI-hoofd Andrej Karpathy van Tesla onlangs. Normaal gesproken wordt het functioneren van software veranderd door te sleutelen aan de computercode, in bijvoorbeeld een taal als Python, SQL of JavaScript. Dat werkt altijd logisch: de computer doet wat hem verteld wordt en als het fout gaat, zit de fout in de code.
Kunstmatige intelligentie zet dat op z'n kop. Het oorspronkelijke systeem is wel met programmeertaal gemaakt, maar is daarna zelf gaan 'leren' en legt automatisch allerlei verbanden. De makers van ChatGPT weten van tevoren niet welke vraag tot welk antwoord gaat leiden. Dat is de kracht maar ook de zwakte van AI, zegt 'fluisteraar' Riley Goodside. "De truc is om de AI een opzet te geven, een verhaal dat maar op één manier opgelost kan worden", aldus Goodside.
Opnieuw met computers leren omgaan
Ruim binnen de grenzen is kunstmatige intelligentie al goed bruikbaar. Geef ChatGPT een simpele opdracht en het resultaat rolt eruit – niet elke keer precies hetzelfde, maar in essentie gelijk. Bij doorvragen of specifieke opdrachten, worden de rafelrandjes zichtbaar. Prompt engineers duwen bewust tegen die grenzen aan, om ervoor te zorgen dat ook die gevallen straks een eenduidig, logisch antwoord krijgen. De fluisteraars begrijpen als het ware de mechanische, logische 'geest' van de AI, en proberen die in normale spreektaal aan te spreken.
Of in de woorden van Karpathy: zo'n AI-fluisteraar is een soort psycholoog voor kunstmatige intelligentie. Ze vragen door, komen tot de kern van de verwarring en proberen dat dan op te lossen. "Wat er ook fout gaat in het gedrag van [kunstmatige intelligentie], komt niet door een taalkundig misverstand", zegt Shane Steinert-Threlkeld, assistent-professor taalkunde aan de University of Washington. "Ze vertellen ons nadrukkelijk wat ze denken dat we willen horen, of wat wij al eens tegen ze hebben gezegd. Wij zijn degenen die het resultaat interpreteren en er betekenis aan geven."
Luister ook de Bright Podcast:
Baan van tijdelijk belang
Hoewel de AI-fluisteraar de komende tijd dus aan de bak moet om kunstmatige intelligentie betrouwbaarder en nuttiger te maken, lijkt de baan van tijdelijke aard. Op termijn moet AI zo slim en bedreven worden, dat het zelfstandig elk grensgeval leert herkennen. "Er wordt nu geprobeerd om hier een soort tech-priesterschap van te maken, en daar ben ik heel wantrouwig over", zegt Ethan Mollick, professor aan de University of Pennsylvania. "Dit evolueert allemaal heel snel, en niemand weet wat hierna komt."
Steinert-Threlkeld verwijst naar de vroege dagen van Google, toen 'zoekspecialisten' met obscure technieken betere resultaten uit de zoekmachine wisten te toveren. Maar de technologie verbeterde terwijl gebruikers ervaring opdeden. En nu kunnen de meeste gebruikers vrij makkelijk optimaal gebruikmaken van Google.
Kritiek: 'Iedereen is testobject'
Er blijft ook veel kritiek komen op kunstmatige intelligentie. Experts vinden dat diensten als ChatGPT nog niet klaar zijn voor het grote publiek. Celeste Kidd bijvoorbeeld, professor psychologie aan de University of California. Zij onderzoekt hoe mensen een levenslange mening vormen op basis van de dingen die zij lezen. Nepnieuws kan daarbij schadelijk zijn, en dat geldt ook voor overtuigende maar feitelijk onjuiste antwoorden van AI-chatbots.
"Stel je voor dat je iets kankerverwekkends in het drinkwater doet en je zegt: 'We zien wel of het kankerverwekkend is'. Je kan dat niet terugnemen, mensen hebben nu al kanker", aldus Kidd tegenover The Wall Street Journal. Nu miljarden mensen toegang hebben tot kunstmatige intelligentie, en dagelijks duizenden tot miljoenen vragen stellen, zou dat volgens Kidd grote gevolgen kunnen hebben voor het wereldbeeld van die grote groep mensen.