Eddig leginkább arról beszéltünk, hogy az AI képes kódot írni, képet generálni vagy ügyfélszolgálatot automatizálni. Most viszont kaptunk egy konkrét, kézzelfogható példát arra is, hogyan kerülhet ugyanez a képesség rossz kezekbe: AI-val támogatott zero-day exploit bukkant fel a vadonban.

Mi történt

A Google Threat Intelligence Group (GTIG) arról számolt be, hogy először azonosított olyan fenyegető szereplőt, amely egy zero-day sebezhetőséghez készült exploitot használt volna, és a jelek alapján az exploit kidolgozásában AI is közreműködött. A zero-day azt jelenti, hogy a célpont (és gyakran a gyártó is) még nem tud a hibáról — „nulla napja” van felkészülni, mire a támadás elindul.

A jelentés szerint a támadó egy „mass exploitation event”, vagyis tömeges kihasználási hullám részeként tervezte bevetni az eszközt. A Google proaktív felderítése ugyanakkor valószínűleg még a bevetés előtt megakasztotta a folyamatot: értesítették az érintett, meg nem nevezett vállalatot, amely ezután javította a sebezhetőséget.

A Google azt is közölte, hogy nem gondolja, hogy a saját Gemini modelljeit használták volna, viszont „magas bizalommal” állítja, hogy valamilyen AI-modell szerepet játszott a sebezhetőség felfedezésében és az exploit „felfegyverzésében” (azaz támadásra alkalmassá tételében). A célpontot és az elkövetőket nem nevezték meg, de utaltak rá, hogy Kínához és Észak-Koreához köthető körök részéről már korábban is látszott komoly érdeklődés az AI-alapú sebezhetőség-kihasználás iránt.

Miért fontos

A történet lényege nem az, hogy „az AI mostantól hackel” — hanem az, hogy az AI egyre inkább gyorsító a támadói oldalon. Gondolj rá úgy, mint egy nagyon gyors asszisztensre, aki képes átnézni nagy mennyiségű kódot, ötleteket adni hibakereséshez, majd segíteni a hibából támadási láncot építeni. Ettől nem lesz automatikusan mindenki szuperhacker, de csökkentheti a belépési küszöböt és felgyorsíthatja a kifinomultabb támadások előkészítését — különösen a zero-day kategóriában, ahol a védelemnek eleve hátrányból kell indulnia.

Mire figyelj

  1. Mit neveznek „AI-val készítettnek”? Érdemes figyelni, hogy a szakma hogyan definiálja ezt: AI találta meg a hibát, AI segített exploitot írni, vagy „csak” felgyorsította a kutatást?
  2. Tömeges kihasználás vs. célzott műveletek: ha a „mass exploitation” valóban trenddé válik, az a hétköznapi szervezeteket is közelebb hozza a kockázathoz, nem csak a kiemelt célpontokat.
  3. AI a védelemben is: a Google is hangsúlyozta, hogy az AI erős védelmi eszköz lehet, és iparági párhuzamként az Engadget is megemlíti az Anthropic Project Glasswing kezdeményezését, amely AI-t használ magas súlyosságú sebezhetőségek felderítésére. A következő hónapokban az lesz igazán beszédes, hogy ezek az eszközök mennyire tudják ellensúlyozni a támadói gyorsulást, és milyen új „alapbiztonsági” elvárásokat kényszerítenek ki a szoftvergyártóknál.