Georgi Gerganov, a llama.cpp megalkotója 2026. február 20-án hivatalosan bejelentette: a GGML csapata csatlakozik a Hugging Face-hez. Ez az AI világ egyik legjelentősebb nyílt forráskódú felvásárlása, amely alapjaiban határozza meg, hogyan fogsz a jövőben mesterséges intelligenciát futtatni a saját gépeden.
Mi az a llama.cpp és miért fontos?
Ha valaha is futtatál AI modellt a saját laptopodra vagy asztali gépedre, szinte biztosan a llama.cpp-t használtad a háttérben – még akkor is, ha nem tudtál róla. A 2023 márciusában indult projekt tette lehetővé, hogy bárki, drága felhőszolgáltatás nélkül, a saját hardverén futtasson nagy nyelvi modelleket.
Georgi Gerganov bolgár fejlesztő munkája forradalmasította a lokális AI-t: a GGML (Georgi Gerganov Machine Learning) keretrendszer és a llama.cpp lett az az alap, amire az egész „helyi AI” ökoszisztéma épült. Gondolj rá úgy, mint az Android-ra a telefonok világában – egy nyílt platform, amire bárki építhet.
Miért pont a Hugging Face?
A Hugging Face az AI modellek legnagyobb nyílt piactere: több mint egymillió modell érhető el rajta. A llama.cpp pedig a legfontosabb eszköz ahhoz, hogy ezeket a modelleket helyben, a saját gépeden futtasd. A két projekt együttműködése logikus lépés volt – a Hugging Face biztosítja a modelleket, a llama.cpp pedig futtatja őket.
A bejelentés szerint a Hugging Face hosszú távú intézményi hátteret biztosít a projektnek. A gyakorlatban ez azt jelenti, hogy:
- A llama.cpp 100%-ban nyílt forráskódú marad – semmi nem változik a közösségi fejlesztési modellben
- Gerganov és csapata teljes autonómiát kap a technikai irányok meghatározásában
- Stabil finanszírozás biztosítja, hogy a projekt ne függjön egyetlen szponzortól vagy hobbi-szintű karbantartástól
- Jobb integráció a Hugging Face transformers könyvtárral – az új modellek szinte „egyetlen kattintással” elérhetők lesznek lokálisan is
Mi változik a gyakorlatban?
Rövid távon: szinte semmi. A llama.cpp ugyanúgy működik tovább, mint eddig. Hosszú távon viszont komoly fejlesztések jönnek:
Egyszerűbb telepítés és használat. A csapat külön kiemelte, hogy a „casual user” – vagyis a nem fejlesztő felhasználók – élményét akarják javítani. Ha eddig bonyolultnak tűnt helyi AI modellt futtatni, ez hamarosan sokkal egyszerűbb lesz.
Gyorsabb modell-támogatás. Amikor egy új AI modell megjelenik a Hugging Face-en, a llama.cpp szinte azonnal képes lesz futtatni azt helyben. Eddig ez napokat vagy heteket is igénybe vehetett.
Jobb teljesítmény. A GGML kvantizációs technológiája (ami lényegében „összenyomja” a modelleket, hogy kevesebb memóriát használjanak) továbbfejlődik, így egyre erősebb modelleket futtathatsz egyre gyengébb hardveren is.
Neked ez mit jelent vállalkozóként?
Ha magyar vállalkozó vagy, ez a hír több okból is fontos:
Adatvédelem. A helyi AI futtatás azt jelenti, hogy az üzleti adataid soha nem hagyják el a gépedet. Nincs felhő, nincs adatszivárgás. Egy ügyvédi iroda, könyvelő cég vagy egészségügyi szolgáltató számára ez kritikus.
Költségcsökkentés. A felhőalapú AI szolgáltatások (ChatGPT Plus, Claude Pro) havidíjas előfizetést igényelnek. A lokális futtatás egyszeri hardverköltség után gyakorlatilag ingyenes.
Függetlenség. Nem vagy kiszolgáltatva egyetlen cég árazási döntéseinek sem. Ha holnap az OpenAI duplájára emeli az árakat, a helyi modelled ugyanúgy fut tovább.
Testreszabhatóság. Saját adatokon finomhangolt modelleket futtathatsz – képzeld el, hogy az AI asszisztensed ismeri a céged minden termékét, árat és belső folyamatot.
A nagy kép: nyílt forrás vs. zárt modellek
Ez a felvásárlás egy nagyobb trend része. Miközben az OpenAI, az Anthropic és a Google egyre zártabb, fizetős modelleket fejleszt, a nyílt forráskódú közösség szintén erősödik. A Meta Llama modelljei, a Mistral, a Qwen és más nyílt modellek teljesítménye egyre közelebb kerül a zárt modellekéhez.
A GGML és a Hugging Face egyesülése azt üzeni a piacnak: a lokális, nyílt forráskódú AI nem hobbi projekt, hanem komoly, hosszú távú infrastruktúra. A következő években a „felhő vagy helyi?” kérdés egyre inkább valódi választás lesz – nem csak technikai kuriózum.
Hogyan próbáld ki te is?
Ha szeretnéd kipróbálni a lokális AI-t, íme a legegyszerűbb módja:
- Telepíts egy llama.cpp-alapú alkalmazást – az LM Studio vagy az Ollama a legfelhasználóbarátabb opciók
- Válassz egy modellt a Hugging Face-ről – GGUF formátumban (ez a llama.cpp natív formátuma)
- Futtasd – egy 8GB RAM-mal rendelkező laptopra is telepíthetsz kisebb modelleket
Minimum 16GB RAM-ot és egy viszonylag modern processzort érdemes használni a kényelmes élményhez. GPU nem kötelező, de sokat gyorsít.
GYIK – Gyakran ismételt kérdések
A llama.cpp fizetős lesz a felvásárlás után?
Nem. A projekt 100%-ban nyílt forráskódú marad, MIT licensz alatt. A Hugging Face kifejezetten garantálta, hogy ezen nem változtatnak.
Milyen gépen tudok helyi AI-t futtatni?
Minimum 8GB RAM-mal már elindíthatsz kisebb modelleket (7B paramétereseket). A komfortosabb használathoz 16-32GB RAM és egy NVIDIA GPU ajánlott, de nem kötelező.
A lokális AI ugyanolyan jó, mint a ChatGPT?
A kisebb helyi modellek nem érik el a GPT-4 vagy a Claude 3.5 szintjét. De a 70B+ paraméterű nyílt modellek már nagyon közel járnak, és sok feladatra (összefoglalás, fordítás, kódolás) tökéletesen megfelelnek.
Mi az a GGUF formátum?
A GGUF a llama.cpp saját modell-formátuma, amely kvantizált (tömörített) modelleket tartalmaz. Ezek kevesebb memóriát használnak, így gyengébb hardveren is futtathatók anélkül, hogy drámaian romlana a minőség.
Hogyan érinti ez a magyar vállalkozásokat?
A lokális AI futtatás különösen előnyös GDPR-érzékeny iparágakban (jog, egészségügy, pénzügy), ahol az adatok nem hagyhatják el az országot. Emellett a költségmegtakarítás is jelentős lehet: nincs havidíj, csak egyszeri hardverköltség.
Forrás: Hugging Face Blog (2026. február 20.)



