Mi történt
A Google fenyegetésfelderítési csapata arról számolt be, hogy mindössze három hónap alatt az AI-val segített hekkertámadások a kezdeti kísérletezésből „ipari léptékű” fenyegetéssé váltak. A lényeg: a legújabb generatív modellek nagyon jól kódolnak, és ez nemcsak termékfejlesztésnél előny, hanem sérülékenységek (hibák) felkutatásánál és kihasználásánál is.A jelentés alapján bűnözői csoportok és állami kötődésű szereplők (Kína, Észak-Korea, Oroszország) is széles körben használnak kereskedelmi AI-modelleket – többek között Geminit, Claude-ot és OpenAI-eszközöket – támadások finomítására és skálázására. Gondolj erre úgy, mint amikor egy korábban kézi munkával végzett műveletet „gyártósorra” tesznek: ugyanaz a logika, csak nagyobb sebességgel, több variációval, több célponttal.
Közben az AI-biztonság másik oldalán is történtek fontos dolgok. Az Anthropic nemrég visszatartott egy új modellt (Mythos), mert állításuk szerint rendkívül erős képességei miatt komoly kockázatot jelenthetne, ha rossz kezekbe kerülne. A cég azt is állította, hogy a modell „minden jelentős operációs rendszerben és böngészőben” talált zero-day sérülékenységeket. A zero-day olyan hiba, amiről a gyártó még nem tud, így nincs rá javítás – a támadó pedig időelőnyben van.
A Google anyaga ugyanakkor azt is jelzi: egy bűnözői csoport majdnem eljutott odáig, hogy egy zero-day hibát „tömeges kihasználásra” (mass exploitation) használjon, és ehhez látszólag nem a Mythost vetette be. A jelentés említi azt is, hogy csoportok kísérleteznek az OpenClaw nevű, februárban felkapott AI-eszközzel, amelyet korábban „korlátok nélküli” ügynökszerű működése és problémás mellékhatásai (például tömeges e-mail törlések) miatt kritizáltak.
Miért fontos
Az AI itt nem varázspálca, hanem szorzó: felgyorsítja a hibakeresést, a kódrészletek összerakását, a támadási lépések tesztelését és a kártevők (malware) iterálását. Ez védelmi oldalon is igaz lehet – AI-val gyorsabban lehet mintákat keresni, riasztásokat triázsolni, javításokat priorizálni –, de a védekezés nem nyer automatikusan csak attól, hogy „mi is használunk AI-t”. A támadók előnye gyakran az, hogy kevesebb szabály és felelősség korlátozza őket.Mire figyelj
- Zero-day és tömeges kihasználás jelei: ha egy sérülékenység gyorsan „fegyverré” válik (exploit), a javítási ablak drámaian beszűkül. A patch-menedzsment (frissítések gyors és kontrollált telepítése) ilyenkor nem adminisztratív feladat, hanem kockázatcsökkentés.
- „Kereskedelmi modellek” mint támadási infrastruktúra: nem feltétlenül egy titkos, állami szupermodell hozza a bajt. A széles körben elérhető eszközök is elég jók lehetnek a támadások skálázásához.
- AI-ügynökök és korlátok (guardrails): az ügynökszerű rendszerek – amelyek feladatokat végeznek a nevedben – különösen veszélyesek, ha túl széles jogosultságot kapnak. Gondolj rá úgy, mint egy gyakornokra, akinek odaadtad a főkulcsot az irodához: gyorsít, de ha hibázik (vagy manipulálják), nagyot tud rontani.
- A termelékenységi narratíva józan kezelése: az Ada Lovelace Institute kritikája szerint a nagy AI-termelékenységi számok sokszor idő- vagy költségmegtakarítást mérnek, nem pedig jobb szolgáltatást vagy jobb munkavállalói jóllétet. Érdemes azt figyelni, hogy a szervezetek (különösen a közszféra) már a bevezetés elejétől mérik-e a valós hatást, és hosszabb távon is.
A következő időszak tétje az lesz, hogy a „mindenki LLM-asszisztáltan keres hibát” új normalitásában ki tud gyorsabban alkalmazkodni: a támadó, aki skáláz, vagy a védekező, aki rendszerszinten zárja a rést.
