Mi történt
Egy oaklandi szövetségi bíróságon volt OpenAI-alkalmazott és korábbi igazgatósági tag is arról beszélt, hogy a cég idővel egyre inkább termékcentrikussá vált, és ez szerintük kikezdte a biztonsági fókuszt. Rosie Campbell, aki 2021-ben csatlakozott az „AGI readiness” (nagyjából: általános mesterséges intelligenciára való felkészültség) csapathoz, azt mondta: kezdetben kutatásközpontú volt a kultúra, később viszont inkább termékszervezetként működött. Campbell 2024-ben távozott, miután a csapatát feloszlatták; ugyanebben az időszakban egy másik, biztonságra koncentráló egységet, a Super Alignment csapatot is megszüntették.Campbell elismerte: a „frontier” (élvonalbeli) AI fejlesztéséhez jelentős finanszírozás kellhet, de szerinte a misszióval nem fér össze „szuperintelligens” modell felépítése megfelelő biztonsági intézkedések nélkül. Konkrét példaként azt hozta, hogy a Microsoft egy GPT-4-változatot Indiában a Bing keresőn keresztül úgy vezetett be, hogy az még nem ment át az OpenAI Deployment Safety Boardján (DSB) — ez egy belső jóváhagyási mechanizmus, ami olyan, mint egy „repülés előtti checklist”: nem azt feltételezi, hogy baj lesz, hanem azt, hogy a rutin ellenőrzés hiánya később nagy bajok előszobája.
A meghallgatáson előkerült a 2023-as igazgatósági válság háttere is. A GPT-4 indiai bevezetése a tanúvallomások szerint egy volt a „piros zászlók” közül, amelyek hozzájárultak ahhoz, hogy a nonprofit igazgatóság rövid időre menesztette Sam Altman vezérigazgatót. Tasha McCauley korábbi igazgatósági tag arról beszélt, hogy a testületnek nem volt elég bizalma abban: a vezetéstől kapott információk elég teljesek ahhoz, hogy a nonprofit felügyelet a különleges vállalati struktúrában ténylegesen működjön. Elhangzott az is, hogy a board több esetben félrevezető kommunikációt érzékelt, illetve nem kaptak időben tájékoztatást fontos döntésekről (például a ChatGPT nyilvános indításáról), és aggódtak az esetleges összeférhetetlenségek átláthatósága miatt.
Közben az OpenAI publikál modellértékeléseket és nyilvános biztonsági keretrendszert is, ugyanakkor nem kommentálta, jelenleg hogyan közelíti meg az „AGI alignmentet” (azt a problémát, hogy a nagyon erős AI céljai és viselkedése tartósan összhangban maradjon az emberi szándékokkal). A felkészültségi terület vezetésére februárban Dylan Scandinarót igazolták az Anthropictól.
Miért fontos
A tét nem csak az, hogy „ki nyer egy pert”, hanem hogy mennyire hihető egy olyan modell, ahol egy nonprofit testületnek kell féken tartania egy óriási üzleti nyomás alatt működő for-profit szervezetet. Gondolj rá úgy, mint egy autóra, ahol a fékrendszert egy külön csapat tervezi és felügyeli — de a motor teljesítményét és a sebességet a versenypálya diktálja. Ha a fékek papíron léteznek, de a gyakorlatban néha megkerülhetők (vagy a felügyelet későn értesül), akkor a „biztonság” nem elv, hanem szerencse kérdése.Mire figyelj
- A DSB és hasonló kapuk tényleges ereje: lesz-e egyértelmű, kikényszeríthető szabály arra, hogy mi nem mehet ki értékelés nélkül, és mi történik, ha partner oldalon gyorsítanának.
- A nonprofit felügyelet információhoz jutása: a struktúra csak akkor működik, ha a board időben és teljes képpel lát — enélkül a felügyelet formális.
- Biztonsági csapatok stabilitása: ha a readiness/alignment jellegű csoportok megszűnnek vagy átszerveződnek, érdemes figyelni, mi veszi át a szerepüket (folyamat, emberek, költségvetés, vétójog).
- A per hatása a „safety vs. profit” ígéretekre: TechCrunch értelmezésében Musk ügye részben azon áll vagy bukik, hogy a for-profit leány mennyiben erősíti vagy gyengíti az alapító küldetést — és ezt a bíróság most kézzelfogható belső példákon keresztül próbálja megérteni.
