Ha az ügynökeid (OpenClaw, Pi, Open Code) egy zárt modell vagy szolgáltató elérhetetlensége miatt hirtelen „életképtelenné” váltak, nem kell visszamenekülnöd egy másik zárt platformra. A Hugging Face blogposztja konkrét, kétlépcsős menekülőutat ad: hosztolt nyílt modellek vagy teljesen lokális futtatás.

Mi történt

A Hugging Face a „Liberate your OpenClaw” bejegyzésben leírja, hogyan tudod az OpenClaw-alapú (és rokon) agentjeidet nyílt modellekre átállítani két módon:

1) Nyílt modellek használata hosztolva, a Hugging Face Inference Providers-en keresztül.

2) Teljesen lokális, saját gépen futó nyílt modell használata.

A poszt szerint a hosztolt út a leggyorsabb visszaút egy „képes” ügynökhöz: létrehozol egy Hugging Face tokent, majd az OpenClaw onboarding során az API-kulcsos opciót választod (a példában: openclaw onboard --auth-choice huggingface-api-key). Ezután modellt választasz, és bármikor átírhatod a konfigurációban a kívánt modell azonosítóját (repo_id). A szerzők kiemelik a GLM-5 modellt, amit a saját állításuk szerint jó Terminal Bench eredmények miatt ajánlanak, de azt is hozzáteszik: több ezer modell közül választhatsz.

A másik út a lokális futtatás: a poszt a llama.cpp telepítését javasolja (ez egy teljesen nyílt forráskódú inferencia-könyvtár, „inferencia” alatt azt értsd: a betanított modell futtatása, amikor válaszokat generál). A bejegyzés példája egy lokális szerver indítása beépített webes felülettel (llama-server ...), és egy olyan OpenClaw konfiguráció, ami a helyi szerverhez csatlakozik. A példában Qwen3.5-35B-A3B fut, ami a poszt szerint 32 GB RAM-mal „jól működik”.

Miért fontos

Ez a bejegyzés valójában nem egy új modellről szól, hanem arról, hogy az agentjeid ne legyenek egyetlen zárt szolgáltatóhoz láncolva. Gondolj rá úgy, mint egy „csatlakozó adapterre”: ha a rendszered képes többféle modellhez csatlakozni (hosztolt nyílt vagy lokális), akkor egy kiesés nem bénítja meg a teljes munkafolyamatot.

A két útvonal közti különbség a mindennapokban nagyon kézzelfogható:

A poszt megemlíti azt is, hogy HF PRO előfizetők havonta 2 dollárnyi ingyen kreditet kapnak, ami az Inference Providers használatára is vonatkozik.

Mire figyelj

  1. Döntsd el, mi a szűk keresztmetszet: idő, hardver vagy adatvédelem. Ha gyorsan kell működő agent és nincs erős géped, a hosztolt út a kézenfekvő. Ha érzékeny adatokat dolgozol fel, vagy nem akarsz API-költséget, a lokális futtatás logikusabb.
  2. Modelválasztásnál ne csak a „bench” számokat nézd. A bejegyzés Terminal Bench-re hivatkozik (ez tipikusan azt méri, mennyire ügyes a modell parancssoros/fejlesztői jellegű feladatokban), de a te use case-ed lehet más: eszközhasználat, hosszú kontextus, nyelvi minőség, stabilitás.
  3. Lokális futtatásnál a RAM/VRAM a valóság kapuja. A poszt példája 32 GB RAM-ot említ a Qwen3.5-35B-A3B-hez. Ha ettől eltérő géped van, előbb nézd meg a kiszemelt modell hardver-kompatibilitását, különben könnyen „elindul, de nem használható” helyzet lesz.
  4. Kompatibilitás és csatlakozás: figyeld az API-formátumot. A lokális példában az OpenClaw „OpenAI-kompatibilis” módon csatlakozik a llama.cpp szerverhez (ez annyit tesz: olyan végpontokat és kérésszerkezetet használ, ami sok kliensben elterjedt). Ha valami nem működik, első körben a szerver futását és a betöltött modelleket érdemes ellenőrizni (a poszt példája: curl http://127.0.0.1:8080/v1/models).