Mi történt
A Sam Altman és Elon Musk közötti perben (Musk Altman ellen indított eljárást) egy videós tanúvallomás került elő Mira Muratitól, az OpenAI korábbi technológiai vezetőjétől. Murati a vallomásban több alkalommal is kétségbe vonta Altman őszinteségét és vezetői működését.A legkonkrétabb állítás szerint Altman egyszer azt mondta Muratinak, hogy az OpenAI jogi csapata jóváhagyta: egy új AI-modell kiadása előtt meg lehet kerülni egy belső biztonsági testületet, amelynek feladata a modellek ellenőrzése publikálás előtt. Amikor a jogászok rákérdeztek, Murati elhitte-e, hogy Altman igazat mondott, a válasza egyértelmű volt: nem.
A vallomás a 2023 novemberi, pár nap alatt lezajló vezetői válság (a belsősök által „Blip”-ként emlegetett időszak) kontextusában is fontos. Akkor az igazgatótanács rövid időre eltávolította Altmant azzal az indokkal, hogy nem volt következetesen őszinte a testülettel. A dolgozói tiltakozás és a Microsoft közbelépése után Altman napokon belül visszatért, ami további vezetői távozásokat indított el — Muratiét is.
Miért fontos
A „biztonsági testület” és a „jogi jóváhagyás” nem adminisztratív részlet, hanem a fékek és ellensúlyok rendszere. Gondolj rá úgy, mint egy repülőgép felszállás előtti ellenőrzőlistájára: ha valaki azt állítja, hogy „már aláírták, mehet”, miközben ez nem igaz, akkor a rendszer nem a valós állapot alapján dönt. Egy nagy hatású AI-terméknél ez azért kényes, mert a kockázatok (hibázás, félrevezetés, visszaélésre való alkalmasság) nem a felhasználói kézikönyvben, hanem a kiadás pillanatában dőlnek el: milyen teszteken ment át, ki vétózhatott, és mennyire transzparens a folyamat.Mire figyelj
- Mi volt pontosan a megkerülni kívánt biztonsági lépés? Nem mindegy, hogy egy formális „pipa” maradt volna ki, vagy egy érdemi, kiadást megállítani képes felülvizsgálat.
- Hogyan van dokumentálva a döntési lánc? A per egyik tanulsága lehet, hogy a belső biztonsági és jogi jóváhagyásoknál mennyire auditálható (utólag ellenőrizhető) a folyamat.
- Mit jelent ez a vállalati irányításra nézve? Murati azt is állította, hogy Altman nem mindig volt őszinte, aláásta a CTO-szerepét, és vezetőket fordított egymás ellen — ezek a minták hosszabb távon a biztonsági kultúrát is erodálhatják.
A történet tágabb olvasata — amit a Futurism AI is erősen sugall — az, hogy itt nem pusztán személyes konfliktusról van szó, hanem arról, mennyire kényszeríthető ki a felelősség és az átláthatóság egy olyan szervezetben, amely egyszerre kutatólaborként és globális termékgyárként működik.
