Hoeveel elektriciteit verbruikt kunstmatige intelligentie?
Waar het bij cryptovaluta een veelvoorkomend onderwerp van gesprek is, wordt het bij AI niet vaak besproken: energieverbruik. Het mijnen van coins kost enorme hoeveelheden stroom, maar hoe zit dat met al die aanvragen via ChatGPT? Kunstmatige intelligentie gebruiken kost ook energie en dat is te berekenen.
Het is niet makkelijk om te berekenen en techbedrijven zeggen ook niet wat de kosten precies zijn. TheVerge heeft echter iets dieper gekeken dan de schattingen en komt tot de conclusie dat er sowieso een verschil is tussen het net beginnen te trainen van een model en het moment waarop het voor gebruikers beschikbaar is. Trainen kost veel energie: meer zelfs dan traditionele data-activiteiten binnen datacenters.
Modellen trainen kost veel stroom
Het trainen van GPT-3, bekend van ChatGPT, kost wel 1.300 megawattuur aan stroom: dat is ongeveer net zoveel als 130 huishoudens in een heel jaar verbruiken. GPT-3 is echter nog ‘klein’ vergeleken bij de AI die er inmiddels bestaat en wordt gebruikt. Tegelijkertijd wordt er ook wat harder gewerkt aan het efficiënter omgaan met elektriciteit. Het is echter niet de innovatie die de berekening moeilijk maakt: het zijn de bedrijven die er niet open over zijn. AI wordt financieel steeds interessanter, maar ze zijn niet heel transparant over welk nadeel eraan kleeft. Immers zijn energieslurpers vaak niet duurzaam.
Sasha Luccioni, onderzoeker bij AI-bedrijf Hugging Face, zegt: “Van ChatGPT weten we niet hoe groot het is, we weten niet hoeveel parameters het onderliggende model heeft, we weten niet waar het draait... Het kunnen drie wasberen in een regenjas zijn: je weet gewoon niet wat er onder de motorkap zit." Die vaagheid komt mogelijk door concurrentie, maar ook om de kritiek rondom AI te ontlopen.
Schattingen
Luccioni heeft een onderzoek uitgevoerd onder 88 verschillende modellen van verschillende types: vragen beantwoorden, afbeeldingen genereren, enzovoort. Elk model moest 1.000 keer een tak uitvoeren en dan voor die 1.000 keer beantwoorden aan de vraag werd er net zoveel energie verbruikt als negen seconden Netflix streamen. Er zit natuurlijk wel een verschil tussen wat schrijven (0,002 kilowattuur) en een afbeelding genereren (0,046 kilowattuur). En dat maakt het ook heel onhandig, geeft de onderzoeker aan: “De generatieve AI-revolutie gaat gepaard met een planetaire kostprijs die ons volledig onbekend is en de spreiding is voor mij bijzonder indicatief. De bottom line is dat we het gewoon niet weten."
De Nederlander Alex de Vries van de VU Amsterdam calculeerde dat in 2027 de AI-sector waarschijnlijk zo’n 85 tot 134 terawatt uur per jaar verbruiken. En dat is veel: net zoveel energie als heel Nederland in een jaar gebruikt. AI is in 2027 waarschijnlijk verantwoordelijk voor een halve procent van het wereldwijde elektriciteitsverbruik in 2027. De International Energy Agency is het daar wel mee eens: datacenters gebruikten in 2022 nog 460 terawattuur aan energie, maar dat zal in 2026 wel tussen de 620 en 1.050 terrawatuur zitten.
Energielabel voor AI
Maar ook De Vries stelt dat techbedrijven er zelf beslist duidelijker over moeten zijn. Luccioni zou graag zien dat er een soort sterrensysteem moet komen voor energie die wordt verbruikt door AI-modellen. Een beetje zoals het energielabel dat we aan gadgets en huizen geven dus. Het is alleen de vraag wie daar toezicht op kan houden: zeker zolang die bedrijven geen open kaart spelen.
Lees meer over kunstmatige intelligentie en schrijf je in voor de Bright Nieuwsbrief.