Ha azt hitted, hogy a modern AI-termékek „fekete dobozok”, ez a történet józanító ellenpélda: néha egy apró kiadási hiba elég, és félmillió sornyi belső kód kerül reflektorfénybe.

Mi történt

Az Anthropic kedden reggel véletlenül nyilvánosságra hozta a Claude Code nevű kódoló eszköze forráskódjának jelentős részét. A kiszivárgás akkor történt, amikor a cég a Claude Code 2.1.88-as verzióját feltöltötte a publikus npm registrybe (az npm a JavaScript/Node.js világ „alkalmazásboltja”: innen telepítik a fejlesztők a csomagokat).

A gondot az okozta, hogy a csomagban véletlenül benne maradt egy source map fájl is. A source map (forrástérkép) olyan, mint egy „útvonalterv” a gép számára optimalizált, tömörített vagy átalakított kód és az eredeti, ember által olvasható forrás között. Normál esetben ez fejlesztői hibakeresésre szolgál, de ha rossz helyre kerül, segíthet visszakövetni a belső megvalósítást.

A CNET AI Atlas beszámolója szerint így több mint 500 000 sornyi kód és közel 2 000 fájl vált elérhetővé. A fájlokat tartalmazó archívum linkjét Chaofan Shou biztonsági kutató posztolta az X-en, és a bejegyzés nagy figyelmet kapott.

Az Anthropic szóvivője megerősítette az esetet: emberi hibáról beszélt, és azt mondta, lépéseket tesznek, hogy ne forduljon elő újra. A cég állítása szerint nem került ki érzékeny ügyféladat vagy hozzáférési adat.

Miért fontos

Két külön dologról érdemes egyszerre beszélni: a kockázatról és az üzleti következményekről.

Biztonsági szempontból a cég szerint nem kompromittálódtak ügyféladatok vagy „kulcsok” (például API-kulcsok, jelszavak). Ugyanakkor a belső forráskód nyilvánossá válása önmagában is jelenthet kockázatot: megkönnyítheti a rendszer működésének feltérképezését, a gyenge pontok keresését, vagy egyszerűen csak felgyorsíthatja a konkurensek tanulását.

Üzleti oldalról a kiszivárgás azért kínos, mert a Claude Code az Anthropic egyik legnépszerűbb termékének számít, és a cikk szerint az utóbbi hónapokban kifejezetten meglódult az érdeklődés iránta. A leak pedig – még ha „csak” belső kód is – ritka betekintést adhat abba, hogyan épül fel a termék, és akár a terméktervek (roadmap) nyomaira is rávezethet. Gondolj rá úgy, mintha valaki véletlenül kint hagyná a szervizkönyvet és a robbantott ábrát egy frissen piacra dobott eszközhöz: nem biztos, hogy azonnal baj lesz, de a versenytársak és a kutatók biztosan megnézik.

A történet időzítése sem mellékes: a Claude körüli figyelem mellett az Anthropic a forrás szerint Super Bowl-kampánnyal is támadta az OpenAI-t, amiért az hirdetéseket tett a ChatGPT ingyenes és olcsóbb csomagjaiba. Vagyis a cég épp erősen látható a nyilvánosságban – ilyenkor egy ilyen hiba még nagyobbat szól.

Mire figyelj

  1. Mit lép az Anthropic a kiadási folyamatban? Érdemes figyelni, bejelentenek-e konkrétabb védelmi intézkedéseket (például automatikus ellenőrzéseket, amelyek kiszűrik a source mapek vagy belső fájlok véletlen publikálását).
  2. Lesz-e „másodlagos” biztonsági hatás? Akkor is lehet utórezgés, ha nem kerültek ki jelszavak: a kód alapján könnyebb lehet sebezhetőségeket keresni. A következő hetekben a javítások, frissítések tempója árulkodó lehet.
  3. Verseny és termékstratégia: a leak egyik legnagyobb tétje nem feltétlenül a közvetlen biztonság, hanem az, hogy mennyi termék- és működési információ olvasható ki belőle. Ha a konkurensek vagy a közösség „kielemez” belőle valamit, az visszaköszönhet a piaci kommunikációban és a termékfejlesztési versenyben.