Mi történt
A Futurism a Science folyóiratban megjelent tanulmányra hivatkozva arról ír, hogy a mesterséges intelligencia — különösen a nagy nyelvi modellek (LLM-ek) és az autonóm ügynökök — alkalmas lehet tömeges félretájékoztatásra és véleménybefolyásolásra, akár „népességszinten” is.Az LLM-et úgy képzeld el, mint egy nagyon jó szöveg-generátort, ami rengeteg példából megtanulja, hogyan „szoktak” az emberek írni és érvelni. Az autonóm ügynök pedig ennek a következő lépése: nem csak válaszol, hanem feladatokat hajt végre (posztol, reagál, keres, szervez, időzít) részben önállóan.
A kutatás egyik konkrét veszélyként az AI-rajokat emeli ki: ez lényegében sok-sok autonóm AI-eszköz összehangolt hálózata, amely képes tömegesen embernek látszani az interneten és a közösségi médiában. A tanulmány absztraktja szerint az LLM-ek „érvelési” képességeit többügynökös architektúrákkal kombinálva ezek a rendszerek képesek lehetnek önállóan koordinálni, közösségekbe beépülni, és hatékonyan konszenzust fabrikálni.
A szerzők a tágabb trendet is felidézik: a rendelkezésre álló bizonyítékok szerint a szervezett közösségimédia-manipuláció 2017-ben 28 országról mára 70-re terjedt. A cikk példaként említ AI-vezérelt félretájékoztatási incidenseket brazil és ír választások kapcsán, jelezve, hogy a demokratikus intézmények már most is nyomás alatt vannak, és a módszerek egyre kifinomultabbak.
Miért fontos
A „klasszikus” propaganda egyik szűk keresztmetszete mindig az volt, hogy drága és lassú: emberek kellenek a tartalomgyártáshoz, a kommenteléshez, a vitákhoz, a különböző szerepek eljátszásához. Egy AI-raj ezt a korlátot csökkenti: olyan, mintha egyetlen szereplő hirtelen több ezer „állampolgárt” tudna a nyilvánosságba küldeni, akik ráadásul egymást erősítve teremtenek látszólagos többségi véleményt.Fontos az is, hogy ez nem „az AI hibája” önmagában. A forrás hangsúlyozza: már AI előtt is kialakultak azok a feltételek, amelyek kedveztek a nagy léptékű dezinformációnak — néhány, nehezen elszámoltatható közösségi platformmal, amelyek üzleti logikája jutalmazza a figyelmet és a felháborodást. A cikk emlékeztet arra is, hogy az ilyen kampányoknak AI nélkül is lehettek súlyos valós következményei, példaként említve a mianmari rohingya népirtás kapcsán a Facebook szerepét.
A szabályozás közben kényelmetlen kérdésekbe ütközik: a tanulmány felvetése szerint például nem egyértelmű, hogy a propaganda-botnetek korlátozása hol találkozik a szólásszabadság értelmezésével. Ráadásul a forrás állítása szerint egyes AI-bothálózatok nyíltan, profitorientált startupként működnek, és kockázati tőkét is képesek bevonni — vagyis nem feltétlenül „sötét webes” rejtőzködő szereplőkről van szó.
Mire figyelj
- Platformszintű védekezés és átláthatóság: lesz-e érdemi változás abban, hogyan azonosítják és jelölik a tömegesen automatizált fiókokat, illetve hogyan teszik auditálhatóvá a politikai célú kampányokat.
- Jogértelmezés a botpropaganda körül: a következő években kulcskérdés lehet, hogy a jogalkotók és bíróságok miként húzzák meg a határt „véleménynyilvánítás” és „koordinált, megtévesztő befolyásolás” között.
- Üzleti modell és finanszírozás: ha valóban léteznek és tőkét vonzanak az ilyen eszközöket építő cégek, az azt jelzi, hogy a piac lát benne keresletet — és ahol kereslet van, ott skálázás is lesz.
- A „konszenzus” gyanús jelei: érdemes figyelni azokra a helyzetekre, amikor hirtelen, sok felületen egyszerre jelenik meg ugyanaz a narratíva, hasonló fordulatokkal, „túl sima” érveléssel, és aránytalanul sok, frissen aktivizálódó profillal.
