Mi történt
A TechCrunch exkluzív információi szerint Mira Murati (korábban az OpenAI technológiai vezetője) startupja, a Thinking Machines Lab új, többmilliárd dolláros megállapodást írt alá a Google Clouddal, hogy bővítse az ott használt AI-infrastruktúráját. A megállapodás értéke egy forrás szerint „single-digit billions”, vagyis egyszámjegyű milliárd dolláros nagyságrend.A csomag része a hozzáférés a Google legfrissebb AI-rendszereihez, amelyek az Nvidia új GB300 chipjeire épülnek, valamint olyan infrastruktúra-szolgáltatások, amelyek a modellek betanítását és éles futtatását (deployment) támogatják. A Google közlése szerint ezek a GB300-alapú rendszerek kb. 2× gyorsulást hozhatnak tréningben és kiszolgálásban a korábbi generációkhoz képest.
Fontos részlet: ez az első alkalom, hogy a Thinking Machines Lab felhőszolgáltatóval köt ilyen megállapodást. Ugyanakkor a deal nem exkluzív, tehát a cég később több felhőt is használhat párhuzamosan.
A Thinking Machines Lab 2025 februárjában indult Murati alapításával. A cég röviddel később egy 2 milliárd dolláros seed kört húzott be 12 milliárd dolláros értékelés mellett. Sokáig szándékosan szűkszavúak voltak, de októberben bemutatták első terméküket, a Tinker nevű eszközt, amely a leírás szerint egyedi, csúcskategóriás (frontier) modellek automatizált létrehozását segíti.
A mostani megállapodásból az is kiderült, hogy a Google szerint a Cloud képes támogatni a startup megerősítéses tanulás (reinforcement learning) jellegű terheléseit, amelyre a Tinker architektúrája támaszkodik. A megerősítéses tanulásra gondolj úgy, mint egy „próbálkozás–visszajelzés–finomhangolás” körre: a modell lépéseket tesz, a rendszer jutalmazza vagy bünteti, és így tanul meg egyre jobb döntéseket hozni. Ez a módszer több nagy labor (például DeepMind és OpenAI) áttöréseinél is fontos szerepet játszott — és tipikusan rendkívül drága számításban.
Miért fontos
Ez a hír elsősorban nem arról szól, hogy „melyik modell lesz a következő nagy dobás”, hanem arról, hogy ki tud elég gyorsan és elég olcsón számolni. A frontier modellek fejlesztésében a compute (GPU/TPU kapacitás), az adatkezelés és a skálázható futtatás együtt olyan, mint egy gyár: ha nincs gépsor, nincs termelés.A Google számára a megállapodás egyértelműen stratégiai: a cég láthatóan igyekszik korán magához kötni az ígéretes, gyorsan növekvő AI-laborokat, és nem csak „nyers GPU-t” adni, hanem komplett felhős csomagot (tárolás, Kubernetes, adatbázis). Közben a konkurencia sem ül: a forrásanyag szerint az Anthropic nemrég egyszerre kötött kapacitásról szóló megállapodásokat több szereplővel is, ami jól mutatja, hogy a nagy labok multi-cloud irányba mennek, hogy csökkentsék a kockázatot és maximalizálják az elérhető kapacitást.
A Thinking Machines szempontjából a Google Cloud-deal azt jelzi, hogy a cég nem csak „kísérletezik”, hanem nagy léptékű tréningre készül. Ha a Tinker valóban custom frontier modellek automatizálására épül, akkor a számítási igény nem egyszeri, hanem folyamatos: sok modell, sok iteráció, sok finomhangolás.
Mire figyelj
- Exkluzivitás hiánya: mivel a megállapodás nem kizárólagos, érdemes figyelni, hogy a Thinking Machines később köt-e hasonló dealeket más felhőkkel is — ez árulkodik a tárgyalási erejükről és a kapacitáshelyzetről.
- Reinforcement learning fókusz: ha a Google kommunikációja RL-terheléseket emel ki, az a Tinker működéséről is többet mondhat. Figyeld, hogy a cég beszél-e később arról, milyen feladatokra és milyen „jutalmazási” logikával épít modelleket.
- GB300 hozzáférés és teljesítmény: a „2× gyorsulás” állítás fontos, de marketing-érzékeny terület. Későbbi, független benchmarkok vagy ügyfél-tapasztalatok mutathatják meg, mit jelent ez valós tréning- és kiszolgálási költségekben.
- A cloud-szolgáltatók új szerepe: ez a deal is azt erősíti, hogy a felhő nem csak infrastruktúra, hanem piacszervező erő az AI-ban. Érdemes figyelni, milyen konstrukciók terjednek el (előre lekötött kapacitás, chip-hozzáférés, kedvezmények, közös fejlesztés), mert ezek később a kisebb cégek lehetőségeit is befolyásolják.
