OpenAI investeert in onderzoek naar het morele kompas van AI
OpenAI geeft geld aan academisch onderzoek naar algoritmen die het moreel oordeel van een mens kan voorspellen. Onderzoekers van Duke University gaan ermee aan de slag.
In een persbericht is te lezen dat OpenAI in totaal 1 miljoen dollar aan de professoren geeft om te onderzoeken of en hoe je AI maakt die moreel oordeelt zoals een mens dat doet. Er is verder weinig informatie over hoe de onderzoekers dat aanpakken en daar doen ze ook wanneer het ze gevraagd wordt geen uitspraken over. Wel doet onder andere Jana Borg mee, die bekend is van boeken en studies over de morele navigatie van kunstmatige intelligentie. Er is daaruit onder andere een moreel-gestuurd algoritme voortgekomen dat bepaalt wie er een donornier krijgt.
Gezocht: moreel kompas
Het idee is dat AI straks wordt getraind om te voorspellen hoe een mens moreel gezien naar een situatie zou kijken. De focus ligt daarbij op de medische wereld, de juridische wereld en het zakenleven. Er is eerder wel eens een poging gedaan om ethisch verantwoorde AI-antwoorden te geven middels een algoritme, maar dat was niet helemaal succesvol. Ask Delphi ‘begreep’ dat cheaten op een examen slecht is, maar als vragen net even anders werden gesteld dan kon hij het weer totaal niet plaatsen of erkennen.
Hoe het komt dat dat morele kompas zo moeilijk is? AI zijn gewoon machines die patronen herkennen en op basis daarvan vast kunnen voorspellen wat er komt. Als je ‘hij heeft de klok horen luiden’ typt, dan weet AI omdat het op heel veel data is getraind dat waarschijnlijk ‘maar hij weet niet waar de klepel hangt’ volgt. Voor moreel oordelen is veel meer nodig, zoals beredeneren, maar ook emotie. AI heeft door alle data de neiging om eerder een Westerse, rijke kant op te gaan. Ook oordeelt het op basis van data dat het meer moreel acceptabel is dan gay zijn, mede omdat het over het algemeen de standaard is en er minder wordt geschreven over bijvoorbeeld homokoppels. Het morele kompas is al met al moeilijk vast te stellen, laat staan aan AI te leren op basis van data die daar wellicht niet goed geschikt voor is.
Algoritme
Uiteindelijk moet een algoritme dat met het menselijke morele oordeel moet werken rekening houden met zoveel verschillende dingen, dat het erop lijkt dat AI op dit moment nog niet zover is. Maar dat is dus ook aan de onderzoekers van Duke University om te gaan uitzoeken.
Lees meer over wetenschap en abonneer je op onze nieuwsbrief.