Google DeepMind werkt aan 'rode knop' om kwaadaardige AI te stoppen
Het is de nachtmerrie van zwaarmoedige tech-visionairs: kunstmatige intelligentie die zich op een kwade dag tegen ons keert. Google houdt daar ook rekening mee.
DeepMind, het AI-bedrijf van Google/Alphabet, heeft nu samen met wetenschappers van de Universiteit van Oxford onderzoek gedaan naar hoe we ons ervan kunnen verzekeren dat AI-software niet kan voorkomen dat mensen ingrijpen als een proces uit de hand dreigt te lopen.
"Af en toe kan het nodig zijn voor een menselijke toezichthouder om op een grote rode knop te drukken", schrijven de onderzoekers in hun paper Safely Interruptible Agents (pdf). "Zo kan voorkomen worden dat een AI-agent doorgaat met acties die schadelijk zijn voor hemzelf of zijn omgeving."
Naar eigen zeggen hebben de onderzoekers van DeepMind en Oxford een framework ontwikkeld dat het mogelijk maakt voor mensen om op elk moment in te grijpen in een schadelijk AI-proces, en wel op zo’n manier dat de AI niet kan leren hoe het dergelijk menselijk ingrijpen kan voorkomen. Het framework werkt bij algoritmes die nu veel toegepast worden in AI, al erkennen de onderzoekers dat het niet vaststaat dat alle algoritmes zodanig kunnen worden aangepast dat ze veilig onderbroken kunnen worden.