Eddig a suli Facebookja és honlapja a „büszkén megmutatjuk, mi történik nálunk” kirakat volt. Most ugyanaz a nyilvános fotógaléria egy új típusú zsarolás alapanyaga lehet.

Mi történt

Gyermekvédelmi szakértők és a brit Nemzeti Bűnüldözési Ügynökség (NCA) arra figyelmeztetnek, hogy bűnözők iskolai weboldalakról és közösségimédia-felületekről lementett gyerekfotókat használnak fel. Ezekből generatív AI-eszközökkel (gondolj rá úgy, mint egy „képszerkesztőre turbó fokozaton”, ami valósághűnek tűnő új képet tud előállítani) szexuális tartalmú, manipulált képeket készítenek, majd pénzt követelnek azzal, hogy különben közzéteszik az anyagot.

Egy brit középiskolát konkrétan meg is próbáltak így megzsarolni: a támadók elküldték az elkészült képeket az intézménynek, és fizetséget kértek a publikálás elkerüléséért. Az ügyben egy digitális „hash” is készült – ez lényegében egy fájl ujjlenyomata, amit platformok között meg lehet osztani, hogy az adott tartalmat automatikusan felismerjék és letiltsák feltöltéskor. A bejelentett csomagban 150 kép olyan kategóriába esett, ami a brit jog szerint gyermekek szexuális bántalmazását ábrázoló anyagnak minősül.

Miért fontos

A történet nem arról szól, hogy „ne posztoljunk semmit”, hanem arról, hogy a nyilvános, azonosítható arcképek ma már könnyen újrahasznosíthatók visszaélésre. A sextortion (intim képekkel való zsarolás) korábban sokszor arra épült, hogy az elkövető ráveszi az áldozatot intim tartalom küldésére; a generatív AI viszont eltolja a kockázatot: elég lehet egy ártatlan iskolai portré is. Ettől a „büszkeségposzt” – díjátadó, sportnap, szalagavató – adatbiztonsági kérdéssé válik, és az iskoláknak ugyanúgy tartalomkockázatot kell kezelniük, mint egy cégnek.

Mire figyelj

  1. Mit tesztek közzé, és mennyire azonosítható? A tanácsok lényege: kerüld a szemből, közelről készült arcképeket. Helyettük távolabbról készült, elmosott, vagy hátulról fotózott képek javasoltak, illetve olyan vizuálok, ahol nincs arc.
  2. Név + arc = extra kockázat. Az azonosítható információk (például név, teljes név, címkézés) csökkentése mérsékli a célzott zsarolás esélyét.
  3. Rendszeres audit és jogosultságkezelés. Érdemes időről időre átnézni a honlapot, a közösségi oldalakat és a promóanyagokat, és frissíteni a képfelhasználási hozzájárulásokat. A szigorúbb adatvédelmi beállítások (ki láthatja, megoszthatja) szintén számítanak.
  4. Incidens esetén protokoll. Ha megtörténik a baj: rendőrségi bejelentés, a manipulált képek megőrzése bizonyítékként, és az eredeti – később „alapanyagként” használt – képek eltávolítása a nyilvános felületekről.

A brit kormány részéről is látszik, hogy a téma felkerült a prioritási listára: Jess Phillips biztosította, hogy szükség esetén frissítik az AI-val előállított explicit képekre vonatkozó jogi kereteket, és már bejelentettek tiltást olyan AI-modellek birtoklására, amelyeket kifejezetten ilyen tartalmak generálására terveztek.

A kérdés most az, hol lesz az új egyensúly: hogyan lehet továbbra is megmutatni az iskolai életet és eredményeket úgy, hogy közben a nyilvános képek ne váljanak zsarolási alapanyaggá. A Guardian Tech anyagában megszólaló iskolafenntartói oldal is ezt a „ünneplés vs. biztonság” dilemmát emeli ki – és egyre több intézménynek kell majd erre gyakorlati választ adnia.