Pas op met wat je AI vraagt: sommige antwoorden veroorzaken 50 keer meer CO2-uitstoot dan andere

Je vraagt een AI-model misschien om je te helpen met je presentatie, een samenvatting te maken of een ingewikkelde filosofische vraag te beantwoorden. Daar doe je toch niemand kwaad mee, denk je dan. Helaas, we moeten je uit de droom helpen: bepaalde vragen en modellen genereren tot vijftig keer meer CO2-uitstoot dan hun simpelere tegenhangers.

Bij elke vraag die je stelt aan een AI gebeurt er achter de schermen iets bijzonders. Je woorden worden omgezet in zogenaamde tokens, een soort digitale bouwstenen van taal. Het model verwerkt deze tokens en genereert zo op miraculeuze wijze een treffend antwoord. Dat denkproces vraagt rekenkracht en rekenkracht kost energie. En ja: energiegebruik betekent onvermijdelijk ook de uitstoot van schadelijke broeikasgassen.

Redeneerstijl
Onderzoekers van de Hochschule München wilden hier meer van weten en besloten daarom veertien verschillende grote AI-taalmodellen (LLM’s) te onderzoeken op hun CO2-uitstoot per antwoord. Ze lieten elk model duizend standaardvragen beantwoorden over allerlei onderwerpen, van geschiedenis tot abstracte algebra. Modellen die uitgebreid ‘nadenken’ blijken veel meer energie te verbruiken dan modellen die snelle ’to-the-point’-antwoorden geven.

“Het milieueffect van het ondervragen van getrainde AI-modellen wordt sterk bepaald door hun redeneerstijl”, zegt hoofdonderzoeker Maximilian Dauner. “We ontdekten dat modellen met expliciete redeneerprocessen tot vijftig keer meer CO2 uitstoten dan modellen die de neiging hebben om beknopter te antwoorden.”

Meer ‘denken’ = meer uitstoot
De verschillen zijn groot. Redeneermodellen produceerden gemiddeld 543,5 ‘denktokens’ per vraag, tegenover slechts 37,7 tokens voor de beknopte modellen. Elke extra token vraagt om meer rekenwerk en kost dus meer energie. Al is er een duidelijk positief verband, meer tokens betekent niet automatisch betere antwoorden. Het meest nauwkeurige model in de studie – de Cogito met 70 miljard parameters – kwam tot een score van bijna 85 procent goede antwoorden op de duizend vragen, maar stootte drie keer meer CO2 uit dan vergelijkbare modellen die korter antwoordden. “Er is op dit moment een duidelijke afweging tussen nauwkeurigheid en duurzaamheid”, legt Dauner uit.

Niet elk onderwerp is even duurzaam
Ook de inhoud van de vraag speelt een rol. Vragen over onderwerpen die veel denkwerk vereisen, zoals filosofie of abstracte wiskunde, waren verantwoordelijk voor een zes keer hogere uitstoot dan eenvoudige vragen over bijvoorbeeld geschiedenis op de middelbare school. “Niet elk onderwerp vraagt om een superkrachtige AI. De uitstoot is dan ook lang niet zo hoog”, vertellen de onderzoekers. Het goede nieuws is dat gebruikers hier ook zelf invloed op uit kunnen oefenen. Door AI’s te vragen om beknopte antwoorden of alleen de zwaardere modellen te gebruiken als het écht nodig is, kunnen we onze digitale CO2-voetafdruk flink verlagen.

Maar over wat voor hoeveelheden aan broeikasgassen hebben we het hier nu eigenlijk? Wie het AI-model DeepSeek R1 (met 70 miljard parameters) 600.000 keer een vraag stelt, heeft even veel CO2-uitstoot veroorzaakt als een retourvlucht van Londen naar New York. Maar kies je voor het zuinigere Qwen 2.5-model (72 miljard parameters), dan kun je 1,9 miljoen vragen stellen voor dezelfde uitstoot en is de nauwkeurigheid ongeveer even hoog.

Bewustwording
Natuurlijk hangt de uitstoot ook af van andere factoren, zoals de gebruikte hardware en de energiemix van het land waar de servers draaien. Toch geven de resultaten uit het onderzoek een helder signaal af: de manier waarop we AI gebruiken, maakt wel degelijk uit voor het klimaat. “Als mensen wisten hoeveel CO2 hun AI-antwoorden kosten – zelfs voor iets simpels als een grappige selfie-generator – zouden ze denk ik wel twee keer nadenken om de app te gebruiken”, zegt Dauner. “En dat is precies ons doel: gebruik deze prachtige nieuwe technologie met beleid, vraag niet klakkeloos om antwoorden.”

Bronmateriaal

"Energy Costs of Communicating with AI" - Frontiers in Communication
Afbeelding bovenaan dit artikel: Matheus Bertelli / Pexels

Fout gevonden?

Voor jou geselecteerd