OpenAI stopt met zijn team om superintelligente AI te temmen
OpenAI had een speciale afdeling opgericht die verantwoordelijk is voor het onder controle houden van superintelligente AI. Het bestond zelfs enige tijd. Echter zou dat team uiteindelijk helemaal niet meer meer zoveel voorstellen, zegt een bron.
Het team heet Superalignment team en is verantwoordelijk voor het ontwikkelen van manieren om superintelligente AI-systemen te beteugelen. Het zou 20 procent van de computingsystemen van OpenAI toegezegd hebben gekregen, maar slechts een fractie van die computingkracht is uiteindelijk gehonoreerd. Veel aanvragen worden geweigerd, stelt een bron, waardoor het team zijn belangrijke werk niet kan doen.
OpenAI Superalignment
Om die reden hebben meerdere mensen het bedrijf deze week verlaten, waaronder Jan Leike, die eerder bij Google DeepMind werkte en bij OpenAI van betekenis was voor ChatGPT en GPT-4. Leike zegt over zijn ontslag: "Ik ben het al geruime tijd oneens met het leiderschap van OpenAI over de kernprioriteiten van het bedrijf, totdat we eindelijk een breekpunt bereikten. Ik geloof dat we veel meer van onze bandbreedte zouden moeten besteden aan het klaarstomen voor de volgende generaties modellen, aan beveiliging, monitoring, paraatheid, veiligheid, robuustheid van tegenstanders, (super)afstemming, vertrouwelijkheid, maatschappelijke impact en aanverwante onderwerpen. Deze problemen zijn moeilijk op te lossen en ik ben bang dat we niet op de goede weg zijn.”
Het is ons niet ontgaan dat ook Ilya Sutskever weg is gegaan bij OpenAI. Leike en Sutskever waren samen de leiders van dit team en zijn nu allebei vertrokken, nog voor de vier jaar die het team had gekregen om te zorgen voor oplossingen om superintelligente AI onder de duim te houden. Een enorm belangrijk team voor veiligheid, maar als zelfs de mensen die het leidden het dus niet meer verantwoord achten, dan roept dat vragen op over de algemene veiligheid van de operatie van OpenAI. En daarmee dus ook van zijn AI.
AI beteugelen
Leike zegt erover: “Het bouwen van slimmere machines dan mensen is inherent een gevaarlijke onderneming. Maar de afgelopen jaren hebben veiligheidscultuur en -processen een ondergeschikte rol gespeeld ten opzichte van shiny, nieuwe producten." Momenteel is OpenAI-mede-oprichter John Schulman verantwoordelijk gemaakt voor het Superalignment-team, maar dat is niet meer in dezelfde vorm. Het bestaat momenteel bij OpenAI niet langer een team dat zich alleen richt op het ontwikkelen van manieren om AI te beteugelen. Diverse onderzoekers van verschillende afdelingen doen het nu allemaal voor zich, wat OpenAI noemt als een ‘dieper geïntegreerd’ team.
Lees meer over kunstmatige intelligentie en abonneer je op onze nieuwsbrief.