Wanneer we iets vragen aan een kunstmatige intelligentie, antwoordt het. Maar achter elk antwoord, zelfs de onjuiste of ongevraagde, is er een onzichtbaar proces: de generatie en verwerking van boord. De tokens, of woorden of fragmenten van woorden omgezet in numerieke snaren die moeten worden geïnterpreteerd door Grote taalmodellen (LLM)consumeer energie. En deze consumptie betreft onvermijdelijk Koolstofdioxide -uitstoot (CO₂).
Een team van Duitse onderzoekers heeft onlangs de emissies gemeten en vergeleken die door verschillende LLM zijn gegenereerd die al zijn getraind en een reeks gestandaardiseerde vragen beantwoordden. De resultaten, gepubliceerd in het tijdschrift Frontiers in communicatiezijn verrassend: sommige soorten aanwijzingen, of de toepassingen of instructies die aan de AI worden gegeven, kunnen ertoe leiden 50 keer meer emissies vergeleken met anderen.
Volgens de studie, uitgevoerd door Maximiliaanse Dauner van de Hochschule München University of Applied Sciences, de modellen die expliciete redeneerprocessen gebruiken om een antwoord te krijgen – zo – verzonden Redeneermodellen– Ze zijn veel energieker dan die die beknopte en directe antwoorden bieden.
Analyse 14 LLM -modellen anders, met dimensies die variëren van 7 tot 72 miljard parametersde onderzoekers hebben geplaatst 1.000 vragen over heterogene problemen. De parameters vertegenwoordigen in deze context de fundamentele eenheden waardoor het model informatie leert en herwerkt.
De resultaten laten zien dat de modellen op basis van redeneren gemiddeld genereren 543.5 Token “van denken” Voor elke vraag, terwijl de synthetische modellen ze alleen gebruiken 37.7. DE “Denkend te denken” Dit zijn die tussenliggende passages die worden gegenereerd voordat ze de uiteindelijke respons bereiken en, zoals verwacht, een veel hogere energiebelasting met zich meebrengen.
Meer token is gelijk aan meerdere emissiesmaar dit garandeert niet noodzakelijkerwijs meer correcte antwoorden. De nauwkeurigheid is in feite niet altijd afhankelijk van de complexiteit van de redenering.
Energie -efficiëntie verandert ook volgens het type vraag en het gebruikte model
Het meest nauwkeurige model van de studie was Cogitouitgerust met 70 miljard parametersdie een nauwkeurigheid heeft bereikt van de84,9%. Hij produceerde echter verdrievoudigde emissies Vergeleken met modellen van vergelijkbare dimensies die kortere antwoorden boden, zoals Dauner uitlegde:
We zijn duidelijk getuige van een compromis tussen nauwkeurigheid en duurzaamheid.
Geen van de modellen die het heeft gehandhaafd emissies lager dan 500 gram equivalente co₂ Hij slaagde erin de80% van de nauwkeurigheid. Daar Equivalent Het is de standaardeenheid die wordt gebruikt om de klimatologische impact van de verschillende broeikasgassen te meten.
Ook De aard van de vraag heeft de uitstoot aanzienlijk beïnvloed: complexe vragen, zoals die van Abstracte algebra of filosofiegenereer tot Zes keer meer emissies Vergeleken met eenvoudigere vragen, zoals die van Geschiedenis van de middelbare school.
Hoe kunstmatige intelligentie op een bewuste en duurzame manier te gebruiken
De onderzoekers hopen dat deze resultaten gebruikers ertoe aanzetten om een meer redenering van AI aan te nemen “, zoals Dauner opmerkte:
Het is mogelijk om de uitstoot aanzienlijk te verminderen door simpelweg te vragen om beknopte antwoorden of door de krachtigste modellen alleen te reserveren voor de taken die het gebruik ervan rechtvaardigen.
Om een concreet voorbeeld te geven: als u het model gebruikt Deepseek R1 (70 miljard parameters) om op te reageren 600.000 vragenemissies vergelijkbaar met een Round Trip Flight London – New York. Ter vergelijking, Qwen 2.5 (72 miljard parameters) kunnen reageren op Ongeveer 1,9 miljoen vragen het handhaven van vergelijkbare nauwkeurigheidsniveaus, maar daarmee Dezelfde impact op het milieu.
Het moet in gedachten worden gehouden dat de resultaten van de studie ook worden beïnvloed door andere factoren, zoals zoals De gebruikte hardwarede Kenmerken van het lokale elektriciteitsnet Hij is Modellen geanalyseerdelementen die de generalisatie van gegevens kunnen beperken.
Eindelijk zei Dauner:
Als gebruikers zich volledig bewust zouden zijn van de milieukosten van de reacties die door de AI gegenereerd zijn – zelfs voor triviaal gebruik hoe ze zichzelf kunnen transformeren in een videogamekarakter – zouden ze een meer selectieve aanpak kunnen hanteren en verantwoordelijk zijn voor het gebruik van deze technologieën.
