Nem az a legijesztőbb az AI-ban, hogy meggyőző szöveget ír, hanem hogy ezt ipari méretben, koordináltan és „embernek álcázva” tudja csinálni. Egy új kutatás szerint ez a demokráciák egyik legsebezhetőbb pontjára: a közvélemény formálására mehet rá.

Mi történt

A Futurism a Science folyóiratban megjelent tanulmányra hivatkozva arról ír, hogy a mesterséges intelligencia — különösen a nagy nyelvi modellek (LLM-ek) és az autonóm ügynökök — alkalmas lehet tömeges félretájékoztatásra és véleménybefolyásolásra, akár „népességszinten” is.

Az LLM-et úgy képzeld el, mint egy nagyon jó szöveg-generátort, ami rengeteg példából megtanulja, hogyan „szoktak” az emberek írni és érvelni. Az autonóm ügynök pedig ennek a következő lépése: nem csak válaszol, hanem feladatokat hajt végre (posztol, reagál, keres, szervez, időzít) részben önállóan.

A kutatás egyik konkrét veszélyként az AI-rajokat emeli ki: ez lényegében sok-sok autonóm AI-eszköz összehangolt hálózata, amely képes tömegesen embernek látszani az interneten és a közösségi médiában. A tanulmány absztraktja szerint az LLM-ek „érvelési” képességeit többügynökös architektúrákkal kombinálva ezek a rendszerek képesek lehetnek önállóan koordinálni, közösségekbe beépülni, és hatékonyan konszenzust fabrikálni.

A szerzők a tágabb trendet is felidézik: a rendelkezésre álló bizonyítékok szerint a szervezett közösségimédia-manipuláció 2017-ben 28 országról mára 70-re terjedt. A cikk példaként említ AI-vezérelt félretájékoztatási incidenseket brazil és ír választások kapcsán, jelezve, hogy a demokratikus intézmények már most is nyomás alatt vannak, és a módszerek egyre kifinomultabbak.

Miért fontos

A „klasszikus” propaganda egyik szűk keresztmetszete mindig az volt, hogy drága és lassú: emberek kellenek a tartalomgyártáshoz, a kommenteléshez, a vitákhoz, a különböző szerepek eljátszásához. Egy AI-raj ezt a korlátot csökkenti: olyan, mintha egyetlen szereplő hirtelen több ezer „állampolgárt” tudna a nyilvánosságba küldeni, akik ráadásul egymást erősítve teremtenek látszólagos többségi véleményt.

Fontos az is, hogy ez nem „az AI hibája” önmagában. A forrás hangsúlyozza: már AI előtt is kialakultak azok a feltételek, amelyek kedveztek a nagy léptékű dezinformációnak — néhány, nehezen elszámoltatható közösségi platformmal, amelyek üzleti logikája jutalmazza a figyelmet és a felháborodást. A cikk emlékeztet arra is, hogy az ilyen kampányoknak AI nélkül is lehettek súlyos valós következményei, példaként említve a mianmari rohingya népirtás kapcsán a Facebook szerepét.

A szabályozás közben kényelmetlen kérdésekbe ütközik: a tanulmány felvetése szerint például nem egyértelmű, hogy a propaganda-botnetek korlátozása hol találkozik a szólásszabadság értelmezésével. Ráadásul a forrás állítása szerint egyes AI-bothálózatok nyíltan, profitorientált startupként működnek, és kockázati tőkét is képesek bevonni — vagyis nem feltétlenül „sötét webes” rejtőzködő szereplőkről van szó.

Mire figyelj

  1. Platformszintű védekezés és átláthatóság: lesz-e érdemi változás abban, hogyan azonosítják és jelölik a tömegesen automatizált fiókokat, illetve hogyan teszik auditálhatóvá a politikai célú kampányokat.
  2. Jogértelmezés a botpropaganda körül: a következő években kulcskérdés lehet, hogy a jogalkotók és bíróságok miként húzzák meg a határt „véleménynyilvánítás” és „koordinált, megtévesztő befolyásolás” között.
  3. Üzleti modell és finanszírozás: ha valóban léteznek és tőkét vonzanak az ilyen eszközöket építő cégek, az azt jelzi, hogy a piac lát benne keresletet — és ahol kereslet van, ott skálázás is lesz.
  4. A „konszenzus” gyanús jelei: érdemes figyelni azokra a helyzetekre, amikor hirtelen, sok felületen egyszerre jelenik meg ugyanaz a narratíva, hasonló fordulatokkal, „túl sima” érveléssel, és aránytalanul sok, frissen aktivizálódó profillal.