Mi történt
Az Anthropic kedden közölte, hogy „emberi hiba” miatt véletlenül nyilvánosságra került a Claude Code nevű, AI-alapú kódolási asszisztensük belső forráskódjának egy része (The Guardian). A cég állítása szerint nem biztonsági incidensről (feltörésről), hanem kiadási/csomagolási hibáról volt szó: egy belső használatra szánt fájl tévedésből bekerült egy szoftverfrissítésbe, és ez egy archívumra mutatott.A Guardian szerint az archívum közel 2 000 fájlt és mintegy 500 000 sornyi kódot tartalmazott, amit gyorsan átmásoltak a GitHubra. Egy X-poszt a kiszivárgott kód linkjével korán szerdán már 29 millió feletti megtekintésnél járt, és egy „átírt” (rewritten) verzió rövid idő alatt a GitHub történetének leggyorsabban letöltött repója lett. Az Anthropic szerzői jogi eltávolítási kérelmekkel próbálta fékezni a terjedést.
A cég szóvivője hangsúlyozta: „nem érintett vagy került nyilvánosságra érzékeny ügyféladat vagy hozzáférési adat” (The Guardian). A kiszivárgott anyag az eszköz belső architektúrájához kapcsolódott, és nem tartalmazott bizalmas adatot magáról a Claude alapmodellről. Ugyanakkor a Verge beszámolója alapján a kódban felhasználók olyan „tervrajzokat” is észrevettek, amelyek egy Tamagotchi-szerű (értsd: „gondozható”, állapotokkal és visszajelzésekkel élő) kódolási asszisztensre, illetve egy „always-on” (folyamatosan futó) AI-ügynökre utaltak.
Fontos részlet, hogy a Claude Code működésének egy része nem volt teljesen ismeretlen: a Guardian szerint független fejlesztők korábban visszafejtették (reverse engineering) az eszköz egyes elemeit, és egy korábbi verzió forrása már 2025 februárjában is kiszivárgott.
Miért fontos
Először is: a forráskód kiszivárgása nem ugyanaz, mint amikor ügyféladatok kerülnek ki — ez a történet most a cég szerint nem adatvédelmi katasztrófa. Viszont üzleti és biztonsági szempontból így is komoly: a „belső architektúra” olyan, mint egy étterem konyhai munkafolyamatai és receptjei együtt. Nem feltétlenül derül ki belőle minden titok (például maga a modell), de rengeteget elárul arról, hogyan van összerakva a rendszer, milyen eszközökkel, milyen lépésekkel és milyen automatizmusokkal működik.Másodszor: az AI-kódolási asszisztensek piaca extrém versenyben van, és a „hogyan csinálják” sokszor többet ér, mint egy-egy marketingállítás. A Wall Street Journal szerint a mostani csomag kereskedelmileg érzékeny információkat is tartalmazhatott, például eszközöket és instrukciókat arra, hogyan lehet az AI-modelleket „kódolási ügynökként” működtetni. Az „ügynök” itt leegyszerűsítve olyan AI, ami nem csak válaszol, hanem feladatokat bont lépésekre, eszközöket hív (például futtat, tesztel, fájlokat módosít), és részben önállóan végigvisz munkafolyamatokat.
Harmadszor: a történet időzítése kellemetlen az Anthropicnak. A Guardian emlékeztet rá, hogy ez már a második szivárgás rövid időn belül: a Fortune korábban külön incidensről írt, és arról, hogy a cég állítólag belső fájlok ezreit tárolta nyilvánosan elérhető rendszereken, köztük egy blogposzt-tervezetet is, amely „Mythos” és „Capybara” nevű, közelgő modellekre utalt. Ha egy AI-biztonságra fókuszáló cég sorozatban ilyen hibákat vét, az óhatatlanul kérdéseket vet fel a belső folyamatok érettségéről.
Végül ott a szabályozási és geopolitikai réteg: a Guardian szerint az eset hetekre van attól, hogy az amerikai kormány az Anthropicot ellátási lánc kockázatnak (supply chain risk) minősítette; a cég bíróságon támadta meg a döntést, és egy szövetségi bíró ideiglenes intézkedéssel blokkolta a minősítést. Egy ilyen környezetben minden biztonsági botlás felnagyítva jelenik meg.
Mire figyelj
- Mit mondanak pontosan a „nem volt adat” állításról? A cég szerint nem került ki ügyféladat vagy hozzáférési kulcs. Érdemes figyelni, hogy később pontosítják-e, mi számított „érzékenynek”, és milyen belső komponensek kerültek ki.
- Mennyire volt „csak” csomagolási hiba, és mit változtatnak a kiadási folyamaton? A tanulság itt nem technikai trükk, hanem fegyelem: hogyan ellenőrzik, mi kerül egy release-be. Ha lesz utólagos jelentés, abból kiderülhet, mennyire volt rendszerszintű a probléma.
- Látszik-e a versenyhatás? Ha a kiszivárgott anyag tényleg megkönnyíti másoknak a Claude Code megközelítésének másolását vagy megértését, az rövid távon gyorsíthatja a konkurens termékek fejlődését.
- Hogyan hat ez az Anthropic „AI safety” narratívájára? A biztonság nem csak modellbiztonság (mit tud a modell), hanem üzemeltetési biztonság is (hogyan kezelik a belső rendszereket). A piac és a szabályozók is ezt fogják nézni.
