Fontos tudnivalók
- 1T paraméter MoE hatékonysággal: A DeepSeek V4 körülbelül 1 billió (trillion) összes paraméterig skálázódik, de tokenenként csak ~37B paramétert aktivál, így az inferencia költségeit a V3 szintjén tartja.
- Az Engram memória 1M kontextust tesz lehetővé: A kondicionális memória architektúra 97%-os Needle-in-a-Haystack pontosságot ér el milliós token skálán, megoldva a visszakeresési degradáció problémáját.
- Natív multimodális: Ellentétben a vizuális képességeket utólag hozzáadó modellekkel, a V4 a szöveg-, kép- és videógenerálást már az előtanítás (pre-training) során integrálja a koherensebb modalitások közötti érvelés érdekében.
- Késleltetett, de küszöbön álló: Több kiadási ablak is elmúlt már, de egy "V4 Lite" verzió megjelent a DeepSeek weboldalán March 9, 2026-án, ami fokozatos bevezetési stratégiára utal.
DeepSeek V4: Minden, amit tudunk -- Specifikációk, Benchmarkok és kiadási állapot (March 2026)
March 2026 -- A DeepSeek V3 újraírta a nyílt forráskódú AI szabályait, amikor late 2024-ben elindult, bebizonyítva, hogy egy kínai AI labor képes fej-fej mellett versenyezni az OpenAI-jal és az Anthropic-kal a logikai benchmarkokon, miközben a súlyokat ingyenesen közzéteszi. Most a DeepSeek V4 a 2026-os év legjobban várt nyílt forráskódú modellje -- és hónapokig tartó késések, szivárgások, valamint egy meglepetésszerű "V4 Lite" megjelenés után a teljes kiadás küszöbön állónak tűnik.
Ez a cikk összefoglal mindent, amit jelenleg a DeepSeek V4-ről tudni lehet: az architektúráját, képességeit, a benchmark állításokat, a hardveres hátteret és a bevezetésig vezető hosszú utat. Ahol az információk szivárgásokból vagy nem hivatalos forrásokból származnak, azt egyértelműen jelezzük.
Architektúra: 1 billió paraméter, 37 milliárd aktív
A DeepSeek V4 folytatja azt a Mixture-of-Experts (MoE) architektúrát, amely a V3-at oly hatékonnyá tette, de drámaian skálázza azt. Íme a legfontosabb architektúrális adatok a rendelkezésre álló információk alapján:
| Specifikáció | DeepSeek V3 | DeepSeek V4 | DeepSeek V4 Lite |
|---|---|---|---|
| Összes paraméter | 671B | ~1T (1 trillion) | ~200B |
| Aktív paraméterek | ~37B | ~37B | TBD |
| Architektúra | MoE | MoE | MoE |
| Kontextus ablak | 128K tokens | 1M tokens | TBD |
| Tanítási hardver | Nvidia H800 | Huawei Ascend / Cambricon | TBD |
| Licenc | Open (egyedi) | Apache 2.0 (tervezett) | TBD |
Az MoE megközelítés az, ami a V4-et praktikussá teszi a billió paraméteres skála ellenére. Ahelyett, hogy minden egyes tokennél a teljes modellt aktiválná, az MoE minden bemenetet a specializált "szakértő" (expert) alhálózatok egy kis csoportjához irányít. A jelentések szerint a DeepSeek V4 körülbelül tokenenként 37 milliárd paramétert aktivál -- nagyjából ugyanannyit, mint a V3 -- ami azt jelenti, hogy az inferencia költségei kezelhetőek maradnak, még akkor is, ha a teljes modell 50%-kal nagyobb.
Ez egy kritikus tervezési döntés. Egy sűrű (dense) 1T paraméteres modell futtatása megfizethetetlenül drága lenne. Azáltal, hogy az aktív paraméterek számát konstans szinten tartják, miközben bővítik a szakértői kört, a DeepSeek mélyebb specializációt ér el a különböző tartományokban (kódolás, matematika, kreatív írás, többnyelvű feladatok) anélkül, hogy arányosan növelné a számítási igényeket.
Engram memória: Kondicionális memória, ami valóban működik
A DeepSeek V4 technológiailag talán legérdekesebb jellemzője az Engram, egy kondicionális memória architektúra, amelyet a hosszú kontextusú nyelvi modellek egyik legnehezebb problémájának megoldására terveztek: a releváns információk tényleges visszakeresésére a rendkívül hosszú bemenetekből.
A standard transformer attention (figyelem) mechanizmus a kontextus növekedésével degradálódik. A modellek technikailag képesek befogadni hosszú bemeneteket, de a képességük, hogy megtalálják és felhasználják a kontextus mélyén elrejtett konkrét információkat, csökken. Ez jól dokumentált a Needle-in-a-Haystack benchmarkban, amely azt teszteli, hogy egy modell képes-e megtalálni egy adott tényt egy hosszú dokumentum különböző pontjain elhelyezve.
Az Engram architektúra ezt egy olyan kondicionális memória mechanizmussal kezeli, amely szelektíven tárolja és hívja le az információkat a relevancia-jelek alapján, ahelyett, hogy tisztán a teljes szekvencián átívelő figyelemre támaszkodna.
Az állított eredmények:
| Metrika | Standard Attention | Engram (DeepSeek V4) |
|---|---|---|
| Needle-in-a-Haystack (1M tokens) | 84.2% pontosság | 97% pontosság |
| Támogatott kontextus hossz | Változó (jellemzően 128K) | 1M tokens |
Ha a 97%-os adat megállja a helyét a független teszteken, az jelentős előrelépést jelent. A 84.2% és a 97% közötti különbség milliós token skálán a különbség egy olyan modell között, amely többnyire működik hosszú dokumentumokkal, és egy olyan között, amely megbízhatóan működik velük. A retrieval-augmented generation (RAG) rendszereket, kódelemző eszközöket vagy dokumentumfeldolgozó folyamatokat építő fejlesztők számára ez csökkentheti a darabolási (chunking) stratégiák és a külső visszakeresési rétegek szükségességét.
Fontos megjegyzés: Ezek a számok belső benchmarkokból származnak, és March 2026-ig független forrásból nem lettek megerősítve. Amíg külső értékelések nem igazolják az állításokat, kezeljük őket célkitűzésként.
Kontextus ablak: 1 millió token
A DeepSeek V4 1 millió tokenes kontextus ablaka ugyanabba az osztályba sorolja, mint a Google Gemini modelljeit, amelyek úttörők voltak a milliós kontextusok terén. Viszonyításképpen, egymillió token nagyjából megfelel:
- 15-20 teljes regénynek
- Egy teljes közepes méretű kódbázisnak (500+ fájl)
- Több évnyi csevegési előzménynek
- Egy teljes jogi dokumentumcsomagnak
A hosszú kontextus gyakorlati értéke nagyban függ a visszakeresés minőségétől (lásd fentebb az Engram részt). Egy milliós token ablak gyenge visszakereséssel rosszabb, mint egy 128K-s ablak kiváló visszakereséssel. Ha a DeepSeek Engram állításai igazak, a V4 egyszerre kínálja a kapacitást és a pontosságot, hogy a milliós token kontextusok valóban hasznosak legyenek, ne csak marketing adatok.
A fejlesztők számára a közvetlen alkalmazási lehetőségek a következők:
- Teljes tároló (repository) kódértelmezése darabolás és összegzés nélkül
- Hosszú dokumentumok elemzése (jogi, orvosi, pénzügyi) egyetlen menetben
- Kiterjesztett ágens munkamenetek, ahol a modell megőrzi a teljes beszélgetési és műveleti előzményeket
- Több dokumentumon átívelő érvelés nagy gyűjteményekben
Multimodális képességek: Szöveg-, kép- és videógenerálás
A DeepSeek V4-et natív multimodális modellként írják le, ami azt jelenti, hogy a látási és generálási képességeket már az előtanítás során integrálták, nem pedig külön modulként adták hozzá utólag. Ez jelentős architektúrális különbség azokhoz a modellekhez képest, amelyek adapter rétegeken keresztül illesztik be a képértelmezést.
A bejelentett multimodális képességek közé tartozik:
- Szöveggenerálás (az alapvető nyelvi modell képesség)
- Képértelmezés és -generálás (versenyezve a DALL-E 3-mal, Midjourney-vel)
- Videógenerálás (versenyezve az OpenAI Sora-val, Google Veo 3-mal)
- Modalitások közötti érvelés (kérdések megválaszolása képekről, képek generálása komplex leírásokból, videó készítése szövegből)
A videógenerálási képesség különösen figyelemre méltó. Ha a DeepSeek V4 képes a Sora vagy a Veo 3 minőségével versenyző videót generálni nyílt forráskód mellett, az demokratizálná egy olyan technológia elérését, amely jelenleg vagy drága API-t, vagy zárt platformokat igényel. Azonban a videógenerálási minőségre vonatkozó állítások az egyik legnehezebben értékelhetőek pusztán specifikációk alapján -- a valós kimeneti minőség óriási mértékben változhat.
A natív multimodális integráció elméletileg koherensebb modalitások közötti érvelést tesz lehetővé. Egy modell, amely az előtanítás során érti meg a képeket, természetesebben kezelheti az olyan feladatokat, mint a "írd le, mi a hiba ezen az UI képernyőképen, és generálj egy javított verziót", mint az, amelyhez a látást később adták hozzá. Hogy a V4 a gyakorlatban beváltja-e ezt az ígéretet, még kiderül.
Benchmarkok: Erős állítások, még nem igazolva
A kiszivárgott belső benchmarkok lenyűgöző képet festenek a DeepSeek V4 képességeiről. Íme, hogyan hasonlíthatók össze az állítólagos pontszámok a jelenlegi vezető modellekkel:
Kódolási benchmarkok
| Modell | HumanEval | SWE-bench Verified |
|---|---|---|
| DeepSeek V4 (kiszivárgott) | 90% | 80%+ |
| Claude Opus 4.5 | ~88% | 80.9% |
| GPT-5.3 Codex | ~87% | ~80% |
| DeepSeek V3 | ~82% | ~49% |
| Llama 3.1 405B | ~80% | ~33% |
Főbb megfigyelések
A HumanEval 90%-on új csúcsot jelentene ezen a benchmarkon, bár a HumanEval egyre inkább telítetté válik, és sok kutató megkérdőjelezi relevanciáját a csúcskategóriás modellek megkülönböztetésében.
A SWE-bench Verified 80% felett a jelentősebb állítás. A SWE-bench egy modell azon képességét teszteli, hogy valós GitHub problémákat oldjon meg valódi nyílt forráskódú projektekben -- ez a kódolási képesség sokkal nehezebb és gyakorlatibb tesztje. A Claude Opus 4.5 jelenleg a rekordtartó 80.9%-kal. Ha a DeepSeek V4 ezt eléri vagy meghaladja, miközben nyílt forráskódú marad, az korszakalkotó eredmény lenne.
A V3 ~49%-os SWE-bench pontszámáról a V4 állítólagos 80% feletti értékére való ugrás rendkívüli lenne. Ez a fajta fejlődés egyetlen generáció alatt szokatlan, és szkepticizmusra ad okot, amíg függetlenül nem igazolják. Lehetséges magyarázatok:
- Az Engram memória és a hosszabb kontextus ablak lehetővé teszi a modell számára, hogy teljes tárolók felett érveljen, amit a SWE-bench díjaz.
- Jelentős javulás a kód-specifikus tanítási adatokban és a finomhangolásban (fine-tuning).
- A benchmark pontszámok egy optimalizált értékelési környezetből származnak, amely nem biztos, hogy tükrözi a tipikus használatot.
Amíg a független benchmarkok olyan forrásoktól, mint az LMSYS, BigCode vagy akadémiai laborok nem erősítik meg ezeket a számokat, addig állításként, nem pedig tényként kezelendők.
Hardver: Nvidia nélkül készült
A DeepSeek V4 egyik legfontosabb szempontja a tanítási hardver. Az amerikai exportkorlátozások miatt, amelyek korlátozzák a kínai vállalatok hozzáférését az Nvidia legerősebb GPU-ihoz, a DeepSeek V4-et a jelentések szerint a következők kombinációján tanították:
- Huawei Ascend 910B AI gyorsítók
- Cambricon MLU chipek
Ez két okból is jelentős.
Először is, bebizonyítja, hogy a vezető AI modellek taníthatók Nvidia hardver nélkül is. A DeepSeek V3 már nevezetes volt arról, hogy Nvidia H800 chipeket használt (a H100 korlátozott verziója), de a V4 teljesen áttér a hazai kínai szilíciumra. Ha a V4 beváltja a benchmark állításait, az azt bizonyítaná, hogy az Nvidia körüli hardveres védővonal (moat) szűkebb, mint sokan gondolták.
Másodszor, ez hatással van az AI hardverversenyre általában. A Huawei és a Cambricon jelentősen fektetnek be az AI gyorsítókba, és egy sikeres V4 tanítási folyamat lenne az eddigi legerősebb bizonyítékuk.
V4 futtatása fogyasztói hardveren
A billió paraméteres skála ellenére a DeepSeek hangsúlyozta, hogy a V4 kvantálva (quantized) futtatható fogyasztói hardveren is. A jelentett célok:
| Konfiguráció | Szükséges hardver |
|---|---|
| Teljes pontosság (FP16/BF16) | Több csomópontos GPU klaszter |
| INT8 kvantált | 2x Nvidia RTX 4090 (48 GB összes VRAM) |
| INT4 kvantált | 1x Nvidia RTX 5090 (32 GB VRAM) |
Ez az elérhetőségi történet központi eleme a DeepSeek nyílt forráskódú értékajánlatának. Egy nyílt súlyú modell, amelynek futtatásához adatközpont szükséges, akadémiailag érdekes, de gyakorlatilag korlátozott. Egy modell, amely elfér egy olyan hardveren, amelyet egy fejlesztő megvehet a Micro Center-ben, teljesen megváltoztatja a helyzetet.
A kvantálás mindig kompromisszumokkal jár -- a csökkentett pontosság ronthatja a teljesítményt bizonyos feladatoknál -- de a DeepSeek MoE architektúrája jól illeszkedik a kvantáláshoz, mert bármely inferencia lépésnél csak az aktív szakértő paramétereket kell betölteni a memóriába.
Nyílt forráskód: Apache 2.0 licenc
A DeepSeek megerősítette terveit, hogy a V4 súlyait Apache 2.0 licenc alatt adja ki, amely az egyik legmegengedőbb elérhető nyílt forráskódú licenc. Ez a következőt jelenti:
- Kereskedelmi felhasználás engedélyezett -- a cégek licencdíjak nélkül építhetik be a V4-et termékeikbe
- Módosítás engedélyezett -- a fejlesztők szabadon finomhangolhatják, desztillálhatják vagy módosíthatják a modellt
- Nincsenek copyleft kötelezettségek -- a származékos műveket nem kell nyílt forráskódúvá tenni
- Szabadalmi engedélyt tartalmaz -- az Apache 2.0 tartalmaz egy kifejezett szabadalmi licencet
Ez folytatja a DeepSeek valódi nyílt kiadásokra épülő mintáját, ami ellentétben áll egyes versenytársak "nyílt súlyú, de korlátozott licencű" megközelítésével. A fejlesztői közösség számára egy ilyen képességű modell Apache 2.0-s kiadása példátlan lenne.
Gyakorlati hatás a fejlesztők számára:
- Saját gazdagépű alternatívák a Claude, GPT és Gemini API-khoz képest több felhasználási esetben válnak életképessé
- Finomhangolás saját adatokon anélkül, hogy az adatokat harmadik féllel meg kellene osztani
- Költség-kiszámíthatóság -- az inferencia költségei hardverköltségek, nem token alapú API díjak
- Latencia kontroll -- a helyi telepítés kiküszöböli a hálózati késleltetést
Kiadási ütemterv: Elmulasztott ablakok hosszú sora
A DeepSeek V4 kiadásáig vezető út minden volt, csak nem zökkenőmentes. Íme a várt és elmulasztott kiadási ablakok idővonala:
| Dátum | Esemény |
|---|---|
| Late January 2026 | Korai pletykák egy tesztelés alatt álló "V4"-ről kínai technológiai fórumokon |
| Mid-February 2026 | Az első feltételezett kiadási ablak bejelentés nélkül elmúlik |
| Late February 2026 | A Holdújévi kiadási ablak elmúlik; rövid API leállás találgatásokat indít |
| Early March 2026 | A Financial Times jelentése szerint a V4 kiadása "küszöbön áll" |
| March 9, 2026 | A "V4 Lite" felirat megjelenik a DeepSeek weboldalán, a felhasználók gyorsan észlelik |
| March 12, 2026 | A teljes V4 még mindig nem indult el hivatalosan |
A V4 Lite megjelenése March 9-én az eddigi legkonkrétabb jelzés. Bár a részletek kevesek, ez arra utal, hogy a V4 család legalább egy kisebb variánsa a végső fázisban van. A V4 Lite-hoz pletykált ~200B paraméterszám jelentősen elérhetőbbé tenné, mint a teljes billió paraméteres modellt, miközben potenciálisan betekintést nyújtana a V4 architektúrális innovációiba, mint például az Engram memória.
Több tényező is magyarázhatja a késéseket:
- A nem Nvidia hardveren történő tanítás új mérnöki kihívásokat vet fel
- A benchmark célokat esetleg nem sikerült elérni az első tanítási körökben
- Szabályozási megfontolások Kína AI irányítási keretrendszere körül
- Geopolitikai időzítés -- a kínai laborok nagy AI kiadásai fokozott figyelmet kapnak
Mit jelent ez a fejlesztőknek
A pontos kiadási dátumtól függetlenül a DeepSeek V4 olyan hatásokkal bír, amelyekre érdemes készülni.
Ha a benchmarkok igaznak bizonyulnak
Egy nyílt forráskódú modell, amely kódolási feladatokban felveszi a versenyt a Claude Opus 4.5-tel és a GPT-5.3-mal, alapvetően megváltoztatná az AI-alapú fejlesztői eszközök "építeni vagy venni" kalkulációját. Azok a cégek, amelyek jelenleg jelentős API költségeket fizetnek a csúcskategóriás kódolási képességekért, saját gazdagépen futtatható alternatívát kapnának. Ez lefelé irányuló nyomást gyakorol az API árazásra az egész iparágban -- ami a fejlesztőknek kedvez, függetlenül attól, melyik modellt használják.
Ha az Engram úgy működik, ahogy állítják
Egy modell, amely megbízhatóan kezeli a milliós token kontextusokat, csökkentené a RAG architektúrák bonyolultságát. A bonyolult darabolási, beágyazási (embedding) és visszakeresési folyamatok építése helyett a fejlesztők potenciálisan teljes kódbázisokat vagy dokumentumgyűjteményeket adhatnának át közvetlenül a modellnek. Ez nem szünteti meg teljesen a RAG szükségességét (a költség és a latencia továbbra is számít), de sok felhasználási esetben leegyszerűsíti az architektúrát.
Ha a multimodális generálás versenyképes
A nyílt forráskódú kép- és videógenerálás olyan kreatív és termékfejlesztési lehetőségeket nyitna meg, amelyekhez jelenleg drága, zárt API-k szükségesek. Kisebb csapatok és független fejlesztők is hozzáférnének olyan képességekhez, amelyek jelenleg várólistákhoz és vállalati árazáshoz kötöttek.
Mit érdemes most tenni
- Figyelje a hivatalos kiadást -- kövesse a DeepSeek hivatalos csatornáit a pletykák helyett.
- Készítse elő az infrastruktúrát -- ha saját gazdagépen tervezi futtatni, biztosítsa a megfelelő GPU hardvert (minimum 2x RTX 4090 a kvantált inferenciához).
- Tervezze meg az értékelést -- döntse el, mely benchmarkok és használati esetek fontosak az Ön specifikus alkalmazásaihoz, hogy gyorsan tesztelhesse, amint a súlyok elérhetővé válnak.
- Maradjon szkeptikus -- a kiszivárgott benchmarkok csak marketingnek minősülnek a független igazolásig; értékelje a modellt a saját feladatain, mielőtt infrastruktúrális döntéseket hozna.
Összegzés
A DeepSeek V4 jelentheti 2026 legfontosabb nyílt forráskódú AI kiadását. Egy billió paraméteres MoE modell milliós token kontextussal, natív multimodális képességekkel és a legjobb zárt modellekkel vetekedő kódolási benchmarkokkal -- mindezt Apache 2.0 alatt -- valódi fordulópont lenne az AI fejlesztői ökoszisztéma számára.
A kulcsszó a "lehetne". A benchmark állítások még nincsenek igazolva. A kiadási dátum bizonytalan. Az Engram memóriarendszer független értékelésre szorul. És egy nem Nvidia hardveren ekkora skálán tanított modell gyakorlati teljesítménye valóban feltérképezetlen terület.
Egy dolog azonban világos: a szakadék a nyílt forráskódú és a zárt AI modellek között tovább szűkül, és a DeepSeek az egyik elsődleges erő, amely ezt a konvergenciát hajtja. Akár beváltja a V4 minden ígéretét, akár elmarad néhány területen, az esetleges kiadása az idei év egyik legfontosabb eseménye lesz az AI fejlesztésben.
Ezt a cikket frissítjük, amint új információk válnak elérhetővé. A DeepSeek V4-gyel és más AI fejleményekkel kapcsolatos legfrissebb hírekért kövesse tudósításainkat.