Mi történt
A Futurism beszámolója szerint hét család (ügyvédeik szerint csak az első hullám a várhatóan több tucatból) pert indított az OpenAI ellen Kaliforniában. A keresetek lényege: a cég állítólag nem adott át kanadai hatóságoknak olyan információt, amely — a felperesek szerint — segíthetett volna megelőzni a Tumbler Ridge (British Columbia) településen történt iskolai lövöldözést.A forrás alapján a támadó, a 18 éves Jesse Van Rootselaar február elején megölte édesanyját és fiatalabb mostohatestvérét, majd a helyi középiskolába ment, ahol módosított puskával diákokra és tanárokra lőtt. Öt diák (12–13 évesek) és egy tanársegéd (Shannda Aviugana-Durand, 39) meghalt, 27-en megsérültek. A támadó öngyilkosságot követett el.
A peranyag központi eleme egy korábbi Wall Street Journal-cikkre hivatkozó állítás: 2025 júniusában — hónapokkal az iskolai támadás előtt — az OpenAI automatikus moderációs eszközei (gondolj rá úgy, mint egy „szűrőrendszerre”, ami riaszt, ha a beszélgetésekben erőszakos vagy tiltott tartalom jelenik meg) megjelölték Van Rootselaar fiókját a tömeges erőszakról szóló, grafikus beszélgetések miatt. A jelentés szerint emberi ellenőrök is látták a tartalmat, és annyira súlyosnak ítélték, hogy a cég vezetését arra kérték: értesítsék a kanadai rendvédelmi szerveket.
A beszámoló szerint belső vita zajlott (nagyjából egy tucat munkatárs bevonásával), és végül az OpenAI nem szólt a hatóságoknak, hanem deaktiválta a felhasználói fiókot. A mostani perek azt állítják, hogy ez nemcsak elégtelen volt, hanem üzleti megfontolások is szerepet játszhattak: a felperesek szerint a cég attól tarthatott, hogy az ilyen jelentések későbbi jogi felelősséget vonnak maguk után, és ez árthat a vállalat IPO felé vezető lendületének.
A keresetek többek között azt is állítják, hogy az OpenAI félrevezetően kommunikált arról, milyen lépéseket tett a támadó megállítására. Az OpenAI februárban megerősítette, hogy 2025 júniusában deaktiválta Van Rootselaar fiókját; Sam Altman vezérigazgató pedig egy nyilvános levélben bocsánatot kért, és úgy fogalmazott: „mélyen sajnálja”, hogy nem értesítették a rendvédelmet a júniusban „kitiltott” fiókkal kapcsolatban.
A perek ugyanakkor vitatják a „kitiltás” narratíváját. A felperesek szerint Van Rootselaar a deaktiválás után gyorsan új fiókot hozott létre. Az OpenAI ezt a „védőkorlátok” (guardrails) kijátszásaként írta le — a guardrails itt azokat a szabályokat és technikai korlátozásokat jelenti, amelyeknek elvileg meg kell akadályozniuk, hogy valaki tiltás után egyszerűen visszajöjjön. A kereset viszont azt állítja: nem kifinomult „kijátszás” történt, hanem a támadó lényegében követte az ügyfélszolgálati tájékoztatást, amely szerint a felhasználó később (vagy alternatív e-maillel akár azonnal) új fiókot regisztrálhat.
A felperesek között vannak az elhunyt áldozatok családjai, valamint egy túlélőé is: Maya Gebala (12), aki a beszámoló szerint három lövést kapott fej-nyak tájékon, túlélte, de „katasztrofális” agysérüléssel kritikus állapotban van. A cikk szerint a család korábban Kanadában is perelt, de az új kereset felülírja az első beadványt.
Miért fontos
Ez az ügy nem csak arról szól, hogy „mit csinált a ChatGPT”, hanem arról, hogy egy AI-szolgáltató milyen kötelességekkel tartozik, amikor a saját rendszerei komoly, konkrétnak látszó fenyegetést jeleznek. A moderáció itt nem elvont elvi kérdés: a per állítása szerint volt belső riasztás, volt emberi értékelés, és mégis a „deaktiválás” lett a végső lépés — értesítés nélkül.A másik kényes pont a „guardrails” valós hatékonysága. Ha egy biztonsági intézkedés a gyakorlatban annyit jelent, hogy a felhasználó új e-mail címmel újrakezdi, akkor ez inkább sorompó, mint fal: lassít, de nem állít meg. A perek épp ezt a különbséget próbálják jogi felelősséggé formálni.
Mire figyelj
- Mi volt pontosan az a „hiteles, közvetlen fenyegetés”, amit a belső ellenőrök láttak? A per kimenetelét erősen befolyásolhatja, hogy a tartalom mennyire volt konkrét, időhöz és helyhez köthető.
- Mit jelent jogilag a „jelentési kötelezettség” egy magáncég számára határokon átnyúló helyzetben? Kaliforniai beadványról van szó, kanadai áldozatokkal és rendvédelmi szervekkel — ez eleve bonyolítja a mércét.
- A „ban” vs. „deactivation” vita nem nyelvészkedés: ha a rendszer és az ügyfélszolgálat ténylegesen lehetővé teszi a gyors visszatérést, az a platform biztonsági állításainak hitelességét érinti.
- Precedens-érték: ha a bíróság érdemben foglalkozik azzal, hogy egy AI-cégnek mikor kell hatóságot értesítenie, az iparági gyakorlatokra (moderáció, jelentési protokollok, auditálhatóság) is visszahat.
