A Google-nél újra előkerült a régi kérdés: hol húzódik a határ a „nemzetbiztonság támogatása” és a nehezen ellenőrizhető, potenciálisan káros katonai felhasználások között?

Mi történt

A CNET beszámolója szerint (a The Information korábbi jelentése alapján) a Google megállapodást írhatott alá, amely lehetővé teszi az Egyesült Államok Védelmi Minisztériuma (Pentagon) számára, hogy a vállalat AI-eszközeit minősített, azaz titkosított/klasszifikált munkákban használja. A megállapodás állítólag „bármely jogszerű kormányzati célra” engedné a felhasználást, ami érzékeny katonai alkalmazásokat is magában foglalhat.

A cikk szerint a megállapodás szövegében szerepel, hogy a Google AI rendszereit nem belföldi tömeges megfigyelésre (domestic mass surveillance) és nem „megfelelő emberi felügyelet nélküli” autonóm fegyverekhez (autonomous weapons) szánják. Ugyanakkor a riportok alapján a Google nem tarthat igényt arra, hogy a kormány „jogszerű operatív döntéseit” kontrollálja vagy megvétózza. A CNET azt is írja, hogy a Google a kormány kérésére segíthet a biztonsági beállítások és szűrők (safety settings, filters) módosításában.

A Google szóvivője a CNET-nek e-mailben azt írta: a cég továbbra is elkötelezett amellett, hogy az AI-t ne használják belföldi tömeges megfigyelésre, illetve ne használják autonóm fegyverekhez emberi felügyelet nélkül. A vállalat szerint az API-hozzáférés biztosítása a kereskedelmi modellekhez (API: egy „csatlakozó”, amin keresztül egy szervezet programból éri el a modellt) „felelős megközelítés” a nemzetbiztonság támogatására. A Pentagon a CNET-nek nem kommentálta az ügyet.

A megállapodás időzítése azért különösen érzékeny, mert a cikk szerint több mint 600 Google-alkalmazott nyílt levélben kérte Sundar Pichai vezérigazgatót, hogy a cég „tagadja meg” AI-rendszereinek minősített munkákhoz való elérhetővé tételét. A levél szerzői azt írják: mivel közel dolgoznak a technológiához, felelősségük jelezni és megelőzni annak „legetikátlanabb és legveszélyesebb” felhasználásait. Kiemelt aggályaik között szerepelnek a halálos autonóm fegyverek és a tömeges megfigyelés, de szerintük a minősített környezet önmagában is kockázat, mert a felhasználás a dolgozók tudta és beavatkozási lehetősége nélkül történhet.

Miért fontos

Ez a történet nem csak arról szól, hogy „AI a hadseregnek”. A kulcsszó a minősített felhasználás: gondolj rá úgy, mint egy zárt ajtós üzemmódra, ahol a külső ellenőrzés, az átláthatóság és a belső visszajelzési csatornák is korlátozottabbak. Ha egy modell ilyen környezetben fut, a nyilvános audit, a kutatói rálátás vagy akár a vállalaton belüli „mi történik pontosan?” típusú kontroll is sokkal nehezebb.

A cikk tágabb iparági trendet is jelez: a Google ezzel a Pentagon „klasszifikált AI” partnerei közé kerülne az OpenAI és az xAI mellé, amelyekről szintén hasonló megállapodásokat említ a CNET. Vagyis a nagy modellgyártók egyre inkább úgy tekintenek a kormányzati–védelmi szektorra, mint legitim és stratégiai felhasználóra – miközben a dolgozói és társadalmi bizalom kérdése nem tűnik el.

A belső feszültség azért is ismerős, mert a CNET felidézi a 2018-as Project Maven ügyet: akkor több ezer Google-dolgozó tiltakozott egy Pentagon-program ellen, amely drónfelvételek AI-alapú elemzéséhez kapcsolódott, és a Google végül nem hosszabbította meg a szerződést. A cikk szerint a cég hozzáállása azóta elmozdult, és ezt alátámasztja az is, hogy a Google tavaly eltávolított korábbi megfogalmazásokat az AI-elveiből, amelyek bizonyos károsnak ítélt technológiák, fegyverek és egyes megfigyelési rendszerek kerülését hangsúlyozták. A CNET idézi a DeepMind vezetőjét, Demis Hassabist és James Manyikát is: egy februári blogposztban azt írták, hogy a demokráciáknak vezető szerepet kell vállalniuk az AI fejlesztésében, és a cégeknek-kormányoknak együtt kell dolgozniuk olyan AI-n, amely „védi az embereket, elősegíti a globális növekedést és támogatja a nemzetbiztonságot”.

Mire figyelj

  1. Mit jelent a gyakorlatban az, hogy „bármely jogszerű kormányzati célra”? A megfogalmazás tág, és sok múlik azon, milyen belső szabályok és ellenőrzések társulnak hozzá.
  2. Hol van a tényleges kontroll a modell használata felett? A CNET szerint a megállapodás úgy szólhat, hogy a Google nem vétózhat kormányzati operatív döntéseket; ez fontos különbség a „mi nem erre szánjuk” és a „mi meg is tudjuk akadályozni” között.
  3. Mit takar a biztonsági szűrők módosítása kormányzati kérésre? A „safety filters” laikusan olyan korlátok, amelyek megpróbálják megakadályozni a veszélyes vagy tiltott kimeneteket; ha ezeket célhoz igazítják, az egyszerre lehet legitim (pl. jogos minősített feladat) és kockázatos (pl. védőkorlátok lazítása) irány.
  4. Hogyan kezeli a Google a belső ellenállást? A nyílt levél és a nyilvános reakciók (például Andreas Kirsch DeepMind-kutató posztja) arra utalnak, hogy ez nem pusztán PR-kérdés, hanem vállalati kultúra és munkavállalói bizalom kérdése is.