Ha azt hitted, az AI klímalábnyoma legfeljebb kellemetlen mellékszál, a brit kormány friss számai kijózanítóak: a hivatalos becslés több mint százszorosára ugrott.

Mi történt

A The Guardian szerint az Egyesült Királyság kormánya „csendben” frissített adatokat tett közzé, amelyek alapján az AI-adatközpontok (AI datacentres) energiaigénye a következő 10 évben 34–123 millió tonna CO₂-kibocsátást okozhat az országban. A felső értéket a cikk úgy érzékelteti, hogy ez nagyjából 2,7 millió ember kibocsátásának felel meg ugyanebben az időszakban.

Ez a tartomány a kormány „compute roadmap” (számítási/compute ütemterv) dokumentumának felülvizsgálatában jelent meg. A roadmap a kormány terveit írja le arra, hogyan építene „világszínvonalú compute ökoszisztémát” az AI-hoz – vagyis hogyan teremtene nagy számítási kapacitást (sok és erős szervert) az AI-modellek tanításához és futtatásához.

A friss becslés különösen azért feltűnő, mert egy korábbi – a cikk szerint azóta törölt – számítás még azt állította, hogy a kibocsátás legfeljebb 0,142 millió tonna CO₂ lehet egy évben. Vagyis a hivatalos álláspont most nem finomhangolásról, hanem nagyságrendi korrekcióról szól.

A módosítás hátterében a cikk szerint az áll, hogy a Politico által elsőként jelzett változtatás előtt a Foxglove (független watchdog) és a Carbon Brief is azt jelezte: a korábbi számok „jelentős alábecslésnek” tűnnek. A DSIT (Department for Science, Innovation and Technology) friss tartománya a brit összkibocsátás 2025–2035 közötti előrejelzett értékének kb. 0,9%–3,4%-a.

Miért fontos

Az AI-adatközpontok azért különösen problémásak, mert nem „csak” adatokat tárolnak, mint a klasszikus felhős szerverparkok, hanem nagy mennyiségű számítást végeznek. Gondolj rá úgy, mint a különbségre egy raktár és egy gyár között: az egyikben polcokon állnak a dobozok, a másikban folyamatosan mennek a gépek. A „gyár” jellegű működés több áramot kér, és ha a villamosenergia-termelés jelentős része még fosszilis (szén, gáz), akkor a CO₂-terhelés is gyorsan nő.

A kormányzati cél itt ráadásul gazdaságpolitikai: a compute kapacitás bővítésétől várnak növekedést. Csakhogy a cikkben idézett kritikusok szerint ez nehezen fér össze a nettó zéró (net zero) 2050-re vállalt, jogilag kötelező klímacélokkal. Tim Squirrell (Foxglove) azt állítja, hogy egy „hiperskálájú” (hyperscale, vagyis óriás méretű) AI-adatközpont-építési hullám akár az ország teljes áramfogyasztását is érdemben megdobhatja – és szerinte a kormány eddig nem végzett el „alapvető aritmetikát” a kibocsátási hatások méréséhez.

A cikk Patrick Galey (Global Witness) kemény kritikáját is idézi: szerinte szűk a „szén-dioxid költségvetés” (carbon budget) mozgástere – ez az a még „felhasználható” kibocsátási keret, amin belül elkerülhető lenne a felmelegedés veszélyes szintjeinek kockázata. Galey a globális energiahozzáférési egyenlőtlenséget is felhozza (több százmillió ember áram nélkül), és morális kérdésként is kezeli, mire „költjük” a rendelkezésre álló energiát és kibocsátási teret.

Mire figyelj

  1. Mi lett pontosan a módszertan? A nagy ugrás után kulcskérdés, hogy a DSIT milyen feltételezésekkel számolt (adatközpontok száma, kihasználtság, modellek típusa, hűtés, hálózati mix), és ezek mennyire átláthatók.
  2. A „34–123 Mt” tartomány mitől függ? A cikk szerint az alsó értékhez hatékonyságjavulás (AI-modellek és hardver) és gyorsabb hálózati dekarbonizáció kell. Érdemes figyelni, lesznek-e konkrét, számon kérhető mérföldkövek ezekre.
  3. Összehangolják-e a compute stratégiát a klímacélokkal? Nem az a kérdés, hogy „legyen-e AI”, hanem hogy a bővítés kap-e kötelező energia- és kibocsátási korlátokat, illetve milyen gyorsan zöldül a villamosenergia-termelés.
  4. Lesz-e érdemi kormányzati reakció? A cikk szerint a kormány nem kommentált „on the record”. Ha a számok ekkorát változtak, a következő hetekben fontos jel lesz, hogy jön-e hivatalos magyarázat és vállalás.