Mi történt
A Hugging Face a „Liberate your OpenClaw” bejegyzésben leírja, hogyan tudod az OpenClaw-alapú (és rokon) agentjeidet nyílt modellekre átállítani két módon:1) Nyílt modellek használata hosztolva, a Hugging Face Inference Providers-en keresztül.
2) Teljesen lokális, saját gépen futó nyílt modell használata.
A poszt szerint a hosztolt út a leggyorsabb visszaút egy „képes” ügynökhöz: létrehozol egy Hugging Face tokent, majd az OpenClaw onboarding során az API-kulcsos opciót választod (a példában: openclaw onboard --auth-choice huggingface-api-key). Ezután modellt választasz, és bármikor átírhatod a konfigurációban a kívánt modell azonosítóját (repo_id). A szerzők kiemelik a GLM-5 modellt, amit a saját állításuk szerint jó Terminal Bench eredmények miatt ajánlanak, de azt is hozzáteszik: több ezer modell közül választhatsz.
A másik út a lokális futtatás: a poszt a llama.cpp telepítését javasolja (ez egy teljesen nyílt forráskódú inferencia-könyvtár, „inferencia” alatt azt értsd: a betanított modell futtatása, amikor válaszokat generál). A bejegyzés példája egy lokális szerver indítása beépített webes felülettel (llama-server ...), és egy olyan OpenClaw konfiguráció, ami a helyi szerverhez csatlakozik. A példában Qwen3.5-35B-A3B fut, ami a poszt szerint 32 GB RAM-mal „jól működik”.
Miért fontos
Ez a bejegyzés valójában nem egy új modellről szól, hanem arról, hogy az agentjeid ne legyenek egyetlen zárt szolgáltatóhoz láncolva. Gondolj rá úgy, mint egy „csatlakozó adapterre”: ha a rendszered képes többféle modellhez csatlakozni (hosztolt nyílt vagy lokális), akkor egy kiesés nem bénítja meg a teljes munkafolyamatot.A két útvonal közti különbség a mindennapokban nagyon kézzelfogható:
- A hosztolt Inference Providers olyan, mint egy bérelt erőmű: gyorsan kapsz kapacitást és modelleket, akkor is, ha nincs erős géped.
- A lokális futtatás olyan, mint a saját generátor: több kontrollt és adatvédelmet ad, és nincs API-számla, de a hardver és a beállítás a te felelősséged.
Mire figyelj
- Döntsd el, mi a szűk keresztmetszet: idő, hardver vagy adatvédelem. Ha gyorsan kell működő agent és nincs erős géped, a hosztolt út a kézenfekvő. Ha érzékeny adatokat dolgozol fel, vagy nem akarsz API-költséget, a lokális futtatás logikusabb.
- Modelválasztásnál ne csak a „bench” számokat nézd. A bejegyzés Terminal Bench-re hivatkozik (ez tipikusan azt méri, mennyire ügyes a modell parancssoros/fejlesztői jellegű feladatokban), de a te use case-ed lehet más: eszközhasználat, hosszú kontextus, nyelvi minőség, stabilitás.
- Lokális futtatásnál a RAM/VRAM a valóság kapuja. A poszt példája 32 GB RAM-ot említ a Qwen3.5-35B-A3B-hez. Ha ettől eltérő géped van, előbb nézd meg a kiszemelt modell hardver-kompatibilitását, különben könnyen „elindul, de nem használható” helyzet lesz.
- Kompatibilitás és csatlakozás: figyeld az API-formátumot. A lokális példában az OpenClaw „OpenAI-kompatibilis” módon csatlakozik a llama.cpp szerverhez (ez annyit tesz: olyan végpontokat és kérésszerkezetet használ, ami sok kliensben elterjedt). Ha valami nem működik, első körben a szerver futását és a betöltött modelleket érdemes ellenőrizni (a poszt példája:
curl http://127.0.0.1:8080/v1/models).
