Zo zorgt Google dat zijn robots je niet vermoorden
Google DeepMind stopt taalmodellen in robots om opdrachten beter te snappen, maar zorgt er ook voor dat ze je niet vermoorden.
Google's onderzoekslab DeepMind wil dat robots beter snappen wat mensen bedoelen. Een taak zoals "ruim de kamer op" is voor mensen logisch, maar voor een robot ingewikkeld. Wat is een kamer? Wat betekent opruimen? Wanneer is deze taak klaar?
Om dat logischer te maken, voegt DeepMind taalmodellen en visuele modellen toe zodat robots menselijke doelen beter begrijpen. Deze AI-modellen bewijzen zich nu in chatbots zoals ChatGPT, dus waarom niet in fysieke robots?
Regels over mensen, dieren en scherpe objecten
Het onderzoekslab is zich bewust over de gevaren van deze technologie. Daarom wordt er een Robot Constitution ingesteld: een set regels deels gebaseerd op de drie hoofdregels van schrijver Isaac Asimov. Bovenaan staat dat robots mensen geen letsel mogen toebrengen.
Daarnaast mogen de robots geen taken uitvoeren waarbij mensen, dieren, scherpe voorwerpen of elektrische apparaten betrokken zijn. Als je vraagt om de kamer op te ruimen, zal de robot je kat dus met rust laten.
Voor een extra laag veiligheid zijn de robots zo geprogrammeerd, dat ze stoppen als de kracht op de gewrichten een bepaalde grens overschrijdt. In het onderzoekslab worden de robots ook altijd door een mens in de gaten gehouden, met een fysieke knop in handen om de robot eventueel uit te schakelen.
Mis niks, volg ons WhatsApp-kanaal of abonneer je op de Bright Daily nieuwsbrief.