
AI er rykket fra laboratorierne og ud i hverdagen. Med den teknologiske eksplosion følger nye spørgsmål: Hvad koster al den kunstige intelligens egentlig på elregningen? Diskussionen om AI’s klimaaftryk er blevet højrøstet – men også upræcis. Fra sociale medier til konferencer og politiske rapporter cirkulerer vilde tal og dramatiske påstande. Nogle hævder, at AI bruger lige så meget strøm som hele lande. Andre mener, at AI altid er en klimabelastning. Og mange tror, at energiforbruget kan måles og reguleres med præcise tal.
Disse fortællinger har det til fælles, at de sjældent bygger på gennemsigtige data – men alligevel former de den offentlige debat og politiske dagsorden. Derfor er det vigtigt at skille fakta fra fiktion.
I denne artikel undersøger vi tre udbredte forestillinger om AI og energiforbrug. Vi kalder dem “myter” – ikke for at gøre grin med bekymringerne, men for at rydde op i de forsimplede billeder, der spærrer for en mere nuanceret diskussion. Du får samtidig et indblik i, hvordan man faktisk måler AI’s energiforbrug, og hvorfor det er langt sværere, end det lyder. For uden gennemsigtighed og standarder risikerer vi både grønvask og fejlslutninger – og det har hverken klimaet eller AI-debatten brug for.
Myte 1: “AI bruger lige så meget strøm som et helt land”
Det lyder voldsomt – og det er også meningen. Sammenligninger som “OpenAI’s GPT-3 bruger lige så meget strøm som Irland” eller “AI-modeller sluger mere end hele datacentre” florerer hyppigt på sociale medier og i artikler. Problemet er bare, at de ofte er upræcise, misvisende – eller helt forkerte.
Der er nemlig stor forskel på, hvornår og hvordan AI bruger energi. Træningen af store modeller som GPT-4 kræver enorme mængder strøm – men det sker én gang. Når modellen først er trænet, foregår den daglige brug (også kaldet inferens) langt mere energieffektivt. Det svarer til at sammenligne at bygge en bil med at køre i den.
Og så er der spørgsmålet om proportioner. Ja, AI bidrager til det samlede strømforbrug i datacentre – men ifølge de nyeste estimater fra International Energy Agency (IEA) står hele AI-sektoren i 2023 for under 2 % af verdens datacenterforbrug. Til sammenligning bruges langt mere energi på video-streaming, kryptovaluta og e-mail.
Det betyder ikke, at AI’s energiforbrug er ubetydeligt. Men myten om, at AI alene truer elnettet, skygger for en mere nuanceret debat. Især når de voldsomme tal ofte bygger på ældre data, grove overslag – eller helt mangler dokumentation.
Myte 2: “AI er altid en klimabelastning”
Når vi taler om AI og klima, handler det næsten altid om problemer. Artikler om “gigantiske modeller” og “eksploderende elforbrug” skaber billedet af en teknologi, der kun trækker i den forkerte retning. Det er forståeligt – AI bruger strøm, og strøm betyder som regel CO₂. Men at betragte AI som en automatisk klimabelastning er en forsimplet forestilling, der overser noget vigtigt: AI kan også bruges til at mindske energiforbrug og styrke grøn omstilling.
Allerede i dag bliver AI anvendt til at optimere alt fra datacenterkøling og transportlogistik til forudsigelser i elnettet, så grøn strøm udnyttes bedre. Google har fx brugt AI til at reducere energiforbruget i deres datacentre med op til 30 %, og energiselskaber bruger maskinlæring til at balancere sol og vind i elproduktionen mere effektivt. I byggeriet bruges AI til at minimere materialespild, og i landbruget til at dosere gødning og vand præcist.
Det betyder ikke, at AI per definition er bæredygtigt. Tværtimod kræver det aktivt valg og ansvarlig implementering. Men det er vigtigt at huske, at AI ikke kun er en del af problemet – det kan også være en del af løsningen. Myten om, at AI altid er en klimabelastning, risikerer at spænde ben for netop de løsninger, der kan gøre teknologien mere ansvarlig.
Myte 3: “Vi kan måle AI’s energiforbrug præcist”
Hvis vi vil tage AI’s klimaaftryk alvorligt, er der én ting, vi er nødt til først: at kunne måle det. Men her støder vi hurtigt ind i en mur. For selv om tal florerer i debatindlæg, rapporter og marketingmateriale, er det alt andet end enkelt at finde ud af, hvor meget energi en given AI-model bruger.
Der findes ikke én officiel metode, og energiforbruget afhænger af en lang række faktorer: modelstørrelse, træningslængde, den anvendte hardware, effektiviteten af det datacenter, hvor modellen kører – og ikke mindst hvor i verden det sker. Kører serverne på kulkraft i Texas eller på vandkraft i Norge? Det gør en stor forskel.
Derudover holder mange AI-virksomheder kortene tæt ind til kroppen. De deler sjældent detaljer om, hvor meget energi deres modeller bruger, og når de gør, er det ofte udvalgte tal med begrænset kontekst. Åbenheden fra aktører som OpenAI, Google og Anthropic er fortsat sporadisk – og ingen af dem er forpligtet til at rapportere på samme måde som fx en bilfabrik eller et elselskab.
Forskere og klimaorganisationer arbejder på at udvikle mere retvisende metoder – som fx at bruge FLOPs (beregningsintensitet) som en proxy for energiforbrug, PUE (Power Usage Effectiveness) i datacentre, eller livscyklusanalyser (LCA), der medtager hele produktionskæden. Men alle metoder har svagheder og bygger i sidste ende på antagelser og skøn.
Kort sagt: Vi mangler fælles standarder, gennemsigtige data og politisk vilje. For selv den mest avancerede klimaregulering hjælper kun lidt, hvis vi ikke kan svare på det grundlæggende spørgsmål: Hvor meget strøm bruger en AI-model – og hvornår?
Hvordan måler man så?
Når energiforbruget ikke opgives direkte – og når det i øvrigt afhænger af alt fra geografisk placering til hardwarevalg – må man ty til indirekte metoder. Flere forskningsmiljøer og klimaorganisationer har forsøgt at udvikle værktøjer, der kan give os et mere retvisende billede af AI’s klimaaftryk. Her er nogle af de mest anvendte:
FLOPs (Floating Point Operations)
En udbredt tilgang er at måle, hvor mange beregninger (FLOPs) en model kræver at træne og bruge. Det giver et groft estimat for, hvor “tung” en model er – og det kan omregnes til energiforbrug, hvis man kender hardware og effektivitet. Men der er store usikkerheder: To modeller med samme antal FLOPs kan bruge vidt forskellig energi, afhængigt af hvor og hvordan de køres.
PUE (Power Usage Effectiveness)
Datacentre opgøres ofte ud fra deres effektivitet, målt som PUE – forholdet mellem den strøm, der bruges på computation, og den samlede strøm (inkl. køling, strømforsyning osv.). En lav PUE betyder høj effektivitet. Men PUE siger intet om, hvad strømmen bruges til – og heller ikke, hvor meget CO₂ der udledes, afhængigt af el-mixet.
Livscyklusanalyser (LCA)
En mere holistisk metode er livscyklusanalyse, som inkluderer både energiforbrug under drift og den skjulte CO₂-udledning fra fx hardwareproduktion, udskiftning og bortskaffelse. LCA er ressourcekrævende og afhænger af adgang til detaljeret data – hvilket mange AI-firmaer ikke udleverer.
Estimater og modeller
Fordi mange tal mangler, bygger forskere ofte modeller med antagelser om strømforbrug, udstyr, placering og så videre. Det kan give nyttige overblik, men tallene bliver hurtigt usikre. En lille ændring i antagelserne kan give store udsving i resultaterne – og gør det svært at sammenligne på tværs.
Alle metoderne har én fælles akilleshæl: mangel på transparens. Når techgiganter ikke deler åbent, bliver selv de bedste metoder til kvalificerede gæt. Derfor er spørgsmålet ikke kun teknisk – det er politisk.
Hvad siger forskningen?
Selv om AI-industrien stadig er præget af lukkede systemer og sparsomme data, er forskere verden over begyndt at kortlægge energiforbruget og CO₂-aftrykket fra kunstig intelligens. Resultaterne er varierede – men én ting går igen: usikkerheden er stor, og gennemsigtigheden mangler.
Et af de mest citerede studier stammer fra University of Massachusetts Amherst (2019), hvor forskere estimerede, at træningen af en stor sprogmodel kunne udlede over 280.000 kg CO₂ – svarende til fem biler over hele deres levetid. Studiet byggede på træning af Transformer-modeller og satte for første gang tal på AI’s potentielle klimaaftryk. Tallene blev siden brugt i utallige artikler – ofte uden de nødvendige forbehold.
Siden er nye studier kommet til. En rapport fra Stanford’s AI Index Report 2024 konkluderer, at træningseffektiviteten i AI-modeller er forbedret markant: Store modeller bruger i dag langt færre beregninger per forbedring i ydeevne. Samtidig er inferens – altså den daglige brug – blevet den største energifaktor, netop fordi den sker så ofte og i så stor skala.
Andre forskningsmiljøer, som MLCommons, arbejder på at udvikle benchmarks og standardiserede målinger for energiforbrug i AI. Der er også initiativer i gang under OECD, IEEE og ISO, som sigter mod fælles internationale standarder.
Men selv de bedste studier støder på samme udfordring: Mangel på data fra de store spillere. Når OpenAI, Google, Meta og Amazon ikke deler præcise oplysninger om, hvordan og hvor deres modeller trænes og kører, må forskerne gætte – og det sætter grænser for både præcision og pålidelighed.
Der er med andre ord bevægelse i forskningen, men stadig lang vej igen. Og imens ruller udviklingen videre med stadig større modeller og stigende brug.
Mellem myter og målinger
AI’s energiforbrug ligger i en gråzone mellem det håndgribelige og det usynlige. Det udspiller sig i serverrum, optimeringsalgoritmer og elnet – langt fra den offentlige bevidsthed og uden de målbare aftryk, vi kender fra andre sektorer. Alligevel er netop energien blevet omdrejningspunkt for en debat, der både spejler vores usikkerhed over for ny teknologi og vores trang til at forstå den gennem velkendte størrelser: strøm, CO₂, klima.
Måske handler spørgsmålet om AI og energi derfor ikke kun om kilowatt og datacentre, men om, hvordan vi som samfund forsøger at indfange konsekvenserne af det, vi endnu ikke har redskaberne til fuldt ud at begribe. I stedet for at se energiforbruget som en afgrænset størrelse, kunne vi betragte det som et tegn på noget større: den måde teknologisk udvikling forskyder vores forestillinger om ansvar, gennemsigtighed og bæredygtighed.
Der findes ikke ét tal, der kan indramme det hele. Men i forsøget på at finde det, får vi måske øje på, hvad det er, vi i virkeligheden har brug for at kunne måle.