Amikor egy volt CTO eskü alatt azt mondja egy vezérigazgatóról, hogy „nem” mondott igazat, az nem csak vállalati dráma: a biztonsági döntések megbízhatóságáról szól. És arról, mennyire lehet stabil a belső kontroll egy olyan cégnél, amelyik tömegek által használt AI-t ad ki.

Mi történt

A Sam Altman és Elon Musk közötti perben (Musk Altman ellen indított eljárást) egy videós tanúvallomás került elő Mira Muratitól, az OpenAI korábbi technológiai vezetőjétől. Murati a vallomásban több alkalommal is kétségbe vonta Altman őszinteségét és vezetői működését.

A legkonkrétabb állítás szerint Altman egyszer azt mondta Muratinak, hogy az OpenAI jogi csapata jóváhagyta: egy új AI-modell kiadása előtt meg lehet kerülni egy belső biztonsági testületet, amelynek feladata a modellek ellenőrzése publikálás előtt. Amikor a jogászok rákérdeztek, Murati elhitte-e, hogy Altman igazat mondott, a válasza egyértelmű volt: nem.

A vallomás a 2023 novemberi, pár nap alatt lezajló vezetői válság (a belsősök által „Blip”-ként emlegetett időszak) kontextusában is fontos. Akkor az igazgatótanács rövid időre eltávolította Altmant azzal az indokkal, hogy nem volt következetesen őszinte a testülettel. A dolgozói tiltakozás és a Microsoft közbelépése után Altman napokon belül visszatért, ami további vezetői távozásokat indított el — Muratiét is.

Miért fontos

A „biztonsági testület” és a „jogi jóváhagyás” nem adminisztratív részlet, hanem a fékek és ellensúlyok rendszere. Gondolj rá úgy, mint egy repülőgép felszállás előtti ellenőrzőlistájára: ha valaki azt állítja, hogy „már aláírták, mehet”, miközben ez nem igaz, akkor a rendszer nem a valós állapot alapján dönt. Egy nagy hatású AI-terméknél ez azért kényes, mert a kockázatok (hibázás, félrevezetés, visszaélésre való alkalmasság) nem a felhasználói kézikönyvben, hanem a kiadás pillanatában dőlnek el: milyen teszteken ment át, ki vétózhatott, és mennyire transzparens a folyamat.

Mire figyelj

  1. Mi volt pontosan a megkerülni kívánt biztonsági lépés? Nem mindegy, hogy egy formális „pipa” maradt volna ki, vagy egy érdemi, kiadást megállítani képes felülvizsgálat.
  2. Hogyan van dokumentálva a döntési lánc? A per egyik tanulsága lehet, hogy a belső biztonsági és jogi jóváhagyásoknál mennyire auditálható (utólag ellenőrizhető) a folyamat.
  3. Mit jelent ez a vállalati irányításra nézve? Murati azt is állította, hogy Altman nem mindig volt őszinte, aláásta a CTO-szerepét, és vezetőket fordított egymás ellen — ezek a minták hosszabb távon a biztonsági kultúrát is erodálhatják.

A történet tágabb olvasata — amit a Futurism AI is erősen sugall — az, hogy itt nem pusztán személyes konfliktusról van szó, hanem arról, mennyire kényszeríthető ki a felelősség és az átláthatóság egy olyan szervezetben, amely egyszerre kutatólaborként és globális termékgyárként működik.