Är AI ett klimatproblem?

Senast uppdaterad: 2025-02-25
Text: Henrik Kniberg
Är du en av de hundratals miljoner människor som använder AI-assistenter som ChatGPT, Claude eller liknande? Är du orolig för den energi du förbrukar när du ber dem om hjälp? Du är inte ensam. När ChatGPT slog igenom 2022, och efterföljande modeller blev allt mer kraftfulla, väckte det stor oro för AI-tjänsternas klimatpåverkan – och med rätta. Men mycket har hänt sedan dess. En ChatGPT-fråga använder idag ungefär lika mycket energi som en vanlig Google-sökning, omkring 0,3 wattimmar (ingen exakt siffra, utan en ungefärlig uppskattning). Det motsvarar att ha en LED-lampa tänd i några minuter. Långt ifrån de tidiga uppskattningarna som pekade på att en AI-konversation skulle dra tio gånger mer energi än en sökning. Förbättringen beror på en snabb teknisk utveckling. T.ex. OpenAI's modell GPT-4o använder bara en tredjedel av energin jämfört med föregångaren. Samtidigt har nya specialdesignade AI-chip från företag som Nvidia gjort det möjligt att leverera samma prestanda med dramatiskt lägre energiförbrukning.
Ökad användning driver total energiförbrukning
Men – det finns en baksida. För medan energiförbrukningen per fråga har sjunkit, har antalet användare och frågor ökat explosionsartat. I slutet av 2024 hanterade ChatGPT omkring en miljard konversationer – per dag. Den totala energiförbrukningen för AI-tjänster fortsätter därför att växa. Det påminner om utvecklingen med bränslesnåla bilar: även om varje bil drar mindre bensin kan den totala förbrukningen öka när fler börjar köra och kör längre sträckor. AI står inför samma utmaning.
Ljusglimtar från ny teknik
Men det finns hopp. I början av 2025 kom ett överraskande genombrott när det kinesiska företaget DeepSeek presenterade en ny AI-modell. Den presterar i nivå med ChatGPT – men har byggts med bara en tiondel av energiåtgången. Det är som att någon plötsligt uppfunnit en bil som går lika snabbt som alla andra men drar en bråkdel av bränslet. Detta fick analytiker att snabbt revidera sina dystra prognoser för AI:s framtida energibehov. Det visar att det går att bygga kraftfulla AI-system mycket mer effektivt än vi tidigare trott.
AI som en del av lösningen
Intressant nog håller AI på att bli en del av lösningen på sina egna klimatutmaningar. De senaste AI-modellerna som t.ex OpenAI's DeepResearch närmar sig mänsklig forskningskapacitet och har redan hjälpt till att utveckla effektivare datorchip och programvara. Samma teknologi kan användas för att forska fram effektivare och miljövänligare energiproduktion. Microsoft, Google och andra stora AI-företag tar också krafttag för miljön. De har åtagit sig att driva sina datacenter med fossilfri energi, och Google siktar på att vara helt koldioxidfritt till 2030.
Vad betyder detta för dig som användare?
För dig som enskild användare finns det inte längre någon anledning att känna klimatångest över att använda moderna AI-assistenter. Energiförbrukningen per fråga är nu i samma storleksordning som andra digitala aktiviteter vi gör dagligen. Den stora klimatutmaningen ligger istället på systemnivå. Framtiden kommer att avgöras av kapplöpningen mellan två krafter: å ena sidan den explosionsartade ökningen i användning, å andra sidan den snabba utvecklingen av effektivare teknik. Vilket som vinner återstår att se. Men en sak är säker – AI kommer att spela en nyckelroll i att lösa sina egna klimatutmaningar.
Källor och underlag
Jag använde GPT DeepResearch för att leta fram faktaunderlag till denna artikel. Det blev en lång detaljerad rapport med många källor. Om du är nyfiken kan du se både min prompt och rapporten här: https://chatgpt.com/share/67bb4ebc-1598-800c-bb48-c33b6f546340
Henrik Kniberg har skrivit denna artikel på uppdrag av GoClimate.