DeepSeek V4: Vše, co víme – Specs, Benchmarks a datum vydání (2026)
← Back to news

DeepSeek V4: Vše, co víme – Specs, Benchmarks a datum vydání (2026)

N

NxCode Team

9 min read

Keskeiset havainnot

  • 1T parameters MoE-tehokkuudella: DeepSeek V4 skaalautuu noin 1 trillion kokonaisparametriin, mutta aktivoi vain ~37B per token, pitäen inference-kustannukset verrattavissa V3-malliin.
  • Engram-muisti mahdollistaa 1M contextin: Ehdollinen muistiarkkitehtuuri saavuttaa 97% Needle-in-a-Haystack-tarkkuuden miljoonan tokenin scale-tasolla, ratkaisten retrieval degradation -ongelman.
  • Natiivi multimodaalisuus: Toisin kuin mallit, joihin vision on lisätty jälkikäteen, V4 integroi tekstin, kuvan ja videon generoinnin pre-training-vaiheen aikana yhtenäisempää cross-modal reasoningia varten.
  • Viivästynyt mutta lähellä: Useita julkaisuikkunoita on ohitettu, mutta "V4 Lite" ilmestyi DeepSeek-verkkosivustolle March 9, 2026, mikä viittaa inkrementaaliseen rollout-strategiaan.

DeepSeek V4: Kaikki mitä tiedämme -- Specs, Benchmarks & Julkaisutilanne (March 2026)

March 2026 -- DeepSeek V3 kirjoitti uusiksi avoimen lähdekoodin AI-säännöt, kun se julkaistiin late 2024, todistaen, että kiinalainen AI-laboratorio voisi kilpailla rinta rinnan OpenAI:n ja Anthropicin kanssa reasoning-benchmarkeissa julkaisemalla weights-tiedostot ilmaiseksi. Nyt DeepSeek V4 on vuoden 2026 odotetuin avoimen lähdekoodin malli -- ja kuukausien viivästysten, vuotojen ja yllättävän "V4 Lite" -ilmestymisen jälkeen täysi julkaisu näyttää olevan ovella.

Tämä artikkeli kokoaa kaiken, mitä DeepSeek V4 -mallista tällä hetkellä tiedetään: sen arkkitehtuurin, kyvyt, benchmark-väitteet, laitteistotarinan ja pitkän tien julkaisuun. Mikäli tiedot peräisin vuodoista tai epävirallisista lähteistä, mainitsemme siitä selkeästi.


Arkkitehtuuri: 1 Trillion Parameters, 37 Billion Active

DeepSeek V4 jatkaa Mixture-of-Experts (MoE) -arkkitehtuuria, joka teki V3-mallista niin tehokkaan, mutta skaalaa sen dramaattisesti. Tässä ovat keskeiset arkkitehtuuriluvut saatavilla olevien tietojen perusteella:

OminaisuusDeepSeek V3DeepSeek V4DeepSeek V4 Lite
Total Parameters671B~1T (1 trillion)~200B
Active Parameters~37B~37BTBD
ArchitectureMoEMoEMoE
Context Window128K tokens1M tokensTBD
Training HardwareNvidia H800Huawei Ascend / CambriconTBD
LicenseAvoin (muokattu)Apache 2.0 (suunniteltu)TBD

MoE-lähestymistapa on se, mikä pitää V4-mallin käytännöllisenä huolimatta sen trillion-parameter-mittakaavasta. Sen sijaan, että koko malli aktivoitaisiin jokaisella tokenilla, MoE reitittää jokaisen syötteen pieneen joukkoon erikoistuneita "expert"-aliverkkoja. DeepSeek V4 aktivoi raporttien mukaan noin 37 billion parametria per token -- suunnilleen saman verran kuin V3 -- mikä tarkoittaa, että inference-kustannukset pysyvät hallittavina, vaikka kokonaismalli on 50% suurempi.

Tämä on kriittinen suunnittelupäätös. Tiheä 1T-parameter-malli olisi estävän kallis ajaa. Pitämällä aktiiviset parametrit vakiona ja laajentamalla expert-poolia, DeepSeek saavuttaa kapasiteettia syvempään erikoistumiseen eri osa-alueilla (koodi, matematiikka, luova kirjoittaminen, monikieliset tehtävät) ilman, että laskentavaatimukset kasvavat suhteellisesti.


Engram-muisti: Ehdollinen muisti, joka todella toimii

Ehkä teknisesti mielenkiintoisin piirre DeepSeek V4 -mallissa on Engram, ehdollinen muistiarkkitehtuuri, joka on suunniteltu ratkaisemaan yksi long-context-kielimallien vaikeimmista ongelmista: relevantin tiedon tehokas haku erittäin pitkistä syötteistä.

Standardi transformer attention heikkenee contextin kasvaessa. Mallit voivat teknisesti hyväksyä pitkiä syötteitä, mutta niiden kyky löytää ja käyttää tiettyä informaatiota, joka on haudattu syvälle näihin konteksteihin, laskee. Tämä on dokumentoitu hyvin Needle-in-a-Haystack -benchmarkissa, joka testaa, pystyykö malli paikantamaan tietyn faktan, joka on sijoitettu eri kohtiin pitkässä dokumentissa.

Engram-arkkitehtuuri vastaa tähän ehdollisen muistimekanismin avulla, joka tallentaa ja hakee tietoa valikoivasti relevanssisignaalien perusteella, sen sijaan että luottaisi pelkästään attention-mekanismiin koko sekvenssin yli.

Väitetyt tulokset:

MittariStandard AttentionEngram (DeepSeek V4)
Needle-in-a-Haystack (1M tokens)84.2% tarkkuus97% tarkkuus
Tuettu Context LengthVaihtelee (128K tyypillinen)1M tokens

Jos 97% luku pitää paikkansa riippumattomissa testeissä, se edustaa merkittävää edistysaskelta. Ero 84.2% ja 97% välillä miljoonan tokenin scale-tasolla on ero mallin välillä, joka enimmäkseen toimii pitkien dokumenttien kanssa, ja mallin välillä, joka toimii niiden kanssa luotettavasti. Kehittäjille, jotka rakentavat retrieval-augmented generation (RAG) -järjestelmiä, koodianalyysityökaluja tai dokumenttien käsittelyputkia, tämä voisi vähentää tarvetta chunking-strategioille ja ulkoisille haku-kerroksille.

Tärkeä huomautus: Nämä luvut ovat peräisin sisäisistä benchmarkeista, eikä niitä ole vahvistettu riippumattomasti March 2026 mennessä. Ennen kuin kolmannen osapuolen arvioinnit vahvistavat väitteet, niihin tulee suhtautua varauksella.


Konteksti-ikkuna: 1 miljoona tokenia

DeepSeek V4:n 1 miljoonan tokenin context window asettaa sen samaan luokkaan Google's Gemini -mallien kanssa, jotka olivat edelläkävijöitä miljoonan tokenin konteksteissa. Vertailun vuoksi, miljoona tokenia vastaa karkeasti:

  • 15-20 täyspitkää romaania
  • Kokonaista keskikokoista koodikantaa (500+ tiedostoa)
  • Usean vuoden keskusteluhistoriaa
  • Täyttä oikeudellista asiakirja-aineistoa

Pitkän kontekstin käytännön arvo riippuu vahvasti haun laadusta (katso Engram yllä). Miljoonan tokenin ikkuna huonolla haulla on huonompi kuin 128K ikkuna erinomaisella haulla. Jos DeepSeek's Engram -väitteet pitävät paikkansa, V4 tarjoaisi sekä kapasiteetin että tarkkuuden, jotka tekevät miljoonan tokenin konteksteista aidosti hyödyllisiä markkinointiluvun sijaan.

Kehittäjille välittömiä sovelluskohteita ovat:

  • Koko repositorion koodin ymmärtäminen ilman tarvetta chunkingille ja tiivistämiselle
  • Pitkien dokumenttien analyysi (laki, lääketiede, talous) yhdellä ajolla
  • Laajennetut agent-sessiot, joissa malli säilyttää täyden keskustelu- ja toimintahistorian
  • Päättely useiden dokumenttien yli laajoissa kokoelmissa

Multimodaaliset kyvyt: Tekstin, kuvan ja videon generointi

DeepSeek V4 on kuvattu natiivina multimodaalisena mallina, mikä tarkoittaa, että vision- ja generointikyvyt on integroitu esikoulutuksen (pre-training) aikana sen sijaan, että ne olisi lisätty erillisinä moduuleina jälkikäteen. Tämä on merkittävä arkkitehtuurinen ero malleihin, joihin kuvan ymmärtäminen on lisätty adapter-kerroksilla.

Raportoidut multimodaaliset kyvyt sisältävät:

  • Tekstin generointi (kielimallin ydinosaaminen)
  • Kuvan ymmärtäminen ja generointi (kilpailee DALL-E 3:n ja Midjourneyn kanssa)
  • Videon generointi (kilpailee OpenAI Soran ja Google Veo 3:n kanssa)
  • Ristikkäismodaalinen päättely (Cross-modal reasoning) (kysymyksiin vastaaminen kuvien perusteella, kuvien luominen monimutkaisista kuvauksista, videon luominen tekstistä)

Videon generointikyky on erityisen huomionarvoinen. Jos DeepSeek V4 pystyy generoimaan videota laadulla, joka on kilpailukykyinen Soran tai Veo 3:n kanssa, ollen samalla avointa lähdekoodia, se demokratisoisi teknologian, joka vaatii tällä hetkellä joko kalliin API-pääsyn tai suljetun alustan. Videon generoinnin laatuväitteet ovat kuitenkin vaikeimpia arvioida pelkkien teknisten tietojen perusteella -- todellinen laatu vaihtelee valtavasti.

Natiivi multimodaalinen integraatio mahdollistaa teoriassa johdonmukaisemman cross-modal reasoningin. Mallin, joka ymmärtää kuvia jo pre-training-vaiheesta lähtien, tulisi suoriutua tehtävistä kuten "kuvaile mikä tässä UI-kuvakaappauksessa on vikana ja generoi korjattu versio" luonnollisemmin kuin mallin, johon vision on lisätty myöhemmin. Se, toteutuuko tämä lupaus käytännössä, jää nähtäväksi.


Benchmark-testit: Vahvoja väitteitä, ei vahvistettu

Vuodetut sisäiset benchmarkit maalaavat vaikuttavan kuvan DeepSeek V4:n kyvyistä. Tässä on vertailu väitetyistä tuloksista nykyisiin johtaviin malleihin:

Koodaus-benchmarkit

MalliHumanEvalSWE-bench Verified
DeepSeek V4 (vuodettu)90%80%+
Claude Opus 4.5~88%80.9%
GPT-5.3 Codex~87%~80%
DeepSeek V3~82%~49%
Llama 3.1 405B~80%~33%

Keskeiset havainnot

HumanEval 90% tasolla edustaisi uutta kärkitulosta tässä benchmarkissa, vaikka HumanEval on muuttunut yhä saturoituneemmaksi ja monet tutkijat kyseenalaistavat sen merkityksen parhaiden mallien erottelussa.

SWE-bench Verified yli 80% on merkittävämpi väite. SWE-bench testaa mallin kykyä ratkaista todellisia GitHub-ongelmia aidoista avoimen lähdekoodin projekteista -- mikä on paljon vaikeampi ja käytännöllisempi testi koodauskyvystä. Claude Opus 4.5 pitää tällä hetkellä ennätystä 80.9% tuloksella. Jos DeepSeek V4 saavuttaa tai ylittää tämän ollen samalla avointa lähdekoodia, se olisi historiallinen saavutus.

Hyppäys V3:n ~49% SWE-bench-tuloksesta V4:n väitettyyn 80%+ tulokseen olisi poikkeuksellinen. Tällainen parannus yhdessä sukupolvessa on epätavallista ja herättää skeptisyyttä, kunnes se on vahvistettu riippumattomasti. Mahdollisia selityksiä ovat:

  1. Engram-muisti ja pidempi context window mahdollistavat mallin päättelyn koko repositorion yli, mistä SWE-bench palkitsee
  2. Merkittävät parannukset koodikohtaisessa training-datassa ja fine-tuning-prosessissa
  3. Benchmark-tulokset ovat peräisin optimoidusta evaluointiympäristöstä, joka ei välttämättä vastaa tyypillistä käyttöä

Kunnes riippumattomat benchmarkit lähteistä kuten LMSYS, BigCode tai akateemiset laboratoriot vahvistavat nämä luvut, niitä tulee pitää väitteinä, ei faktoina.


Laitteisto: Rakennettu ilman Nvidiaa

Yksi DeepSeek V4:n merkittävimmistä piirteistä on sen koulutuslaitteisto. Johtuen Yhdysvaltojen vientirajoituksista, jotka rajoittavat kiinalaisten yritysten pääsyä Nvidia's tehokkaimpiin GPU-siruihin, DeepSeek V4 koulutettiin tiettävästi yhdistelmällä:

  • Huawei Ascend 910B AI-kiihdyttimiä
  • Cambricon MLU -siruja

Tämä on merkittävää kahdesta syystä.

Ensinnäkin se osoittaa, että frontier-tason AI-malleja voidaan kouluttaa ilman Nvidia-laitteistoa. DeepSeek V3 oli jo huomionarvoinen Nvidia H800 -sirujen käytöstä (rajoitettu versio H100:sta), mutta V4 siirtyy kokonaan kotimaiseen kiinalaiseen pii-teknologiaan. Jos V4 lunastaa benchmark-lupauksensa, se todistaisi, että Nvidia-laitteistovalli on kapeampi kuin monet olettivat.

Toiseksi, tällä on vaikutuksia AI-laitteistokilpailuun laajemmin. Huawei ja Cambricon ovat investoineet raskaasti AI-kiihdyttimiin, ja onnistunut V4-koulutus olisi niiden vahvin näyttö tähän mennessä.

V4:n ajaminen kuluttajalaitteistolla

Huolimatta sen trillion-parameter-mittakaavasta, DeepSeek on korostanut, että V4 voi toimia kuluttajalaitteistolla quantisoituna. Raportoidut tavoitteet:

KokoonpanoTarvittava laitteisto
Full precision (FP16/BF16)Multi-node GPU-klusteri
INT8 quantized2x Nvidia RTX 4090 (48 GB total VRAM)
INT4 quantized1x Nvidia RTX 5090 (32 GB VRAM)

Tämä saavutettavuus on keskeinen osa DeepSeek's avoimen lähdekoodin arvolupausta. Open-weight-malli, joka vaatii datakeskuksen toimiakseen, on akateemisesti mielenkiintoinen mutta käytännössä rajoittunut. Malli, joka mahtuu laitteistoon, jonka kehittäjä voi ostaa Micro Centeristä, muuttaa tilanteen täysin.

Quantization sisältää aina kompromisseja -- vähentynyt tarkkuus voi heikentää suorituskykyä tietyissä tehtävissä -- mutta DeepSeek's MoE-arkkitehtuuri soveltuu hyvin kvantisointiin, koska vain aktiiviset expert-parametrit on ladattava muistiin kutakin inference-vaihetta varten.


Avoin lähdekoodi: Apache 2.0 -lisenssi

DeepSeek on vahvistanut suunnitelmat julkaista V4-painot (weights) Apache 2.0 -lisenssillä, joka on yksi sallivimmista saatavilla olevista avoimen lähdekoodin lisensseistä. Tämä tarkoittaa:

  • Kaupallinen käyttö sallittu -- yritykset voivat ottaa V4-mallin käyttöön tuotteissaan ilman lisenssimaksuja
  • Muokkaaminen sallittu -- kehittäjät voivat fine-tunata, distillata tai muokata mallia vapaasti
  • Ei copyleft-velvoitteita -- johdannaisteoksia ei tarvitse julkaista avoimena lähdekoodina
  • Patenttioikeudet sisältyvät -- Apache 2.0 sisältää nimenomaisen patenttilisenssin

Tämä jatkaa DeepSeek's linjaa aidoissa avoimissa julkaisuissa, mikä on vastakohta joidenkin kilpailijoiden "open-weight mutta rajoitettu lisenssi" -lähestymistavalle. Kehittäjäyhteisölle Apache 2.0 -julkaisu tämän tason mallista olisi ennennäkemätöntä.

Käytännön vaikutus kehittäjille:

  • Itse isännöidyt vaihtoehdot Claude, GPT ja Gemini API-rajapinnoille tulevat varteenotettaviksi useammissa käyttötapauksissa
  • Fine-tuning omalla datalla mahdollistuu ilman datan jakamista kolmannen osapuolen kanssa
  • Kustannusten ennustettavuus -- inference-kustannukset ovat laitteistokustannuksia, eivät per-token API-maksuja
  • Viiveen hallinta -- paikallinen käyttöönotto poistaa verkon round tripit

Julkaisuaikataulu: Pitkä sarja ohitettuja ikkunoita

Tie DeepSeek V4:n julkaisuun on ollut kaikkea muuta kuin tasainen. Tässä on aikataulu odotetuista ja ohitetuista julkaisuikkunoista:

PäivämääräTapahtuma
Late January 2026Varhaiset huhut testaavasta "V4"-mallista nousevat esiin kiinalaisilla teknologiafoorumeilla
Mid-February 2026Ensimmäinen arveltu julkaisuikkuna ohitetaan ilman ilmoitusta
Late February 2026Lunar New Year -julkaisuikkuna ohitetaan; lyhyt API-katkos herättää spekulaatioita
Early March 2026Financial Times raportoi V4-julkaisun olevan "ovella"
March 9, 2026"V4 Lite" -merkintä ilmestyy DeepSeek-verkkosivustolle, ja käyttäjät huomaavat sen nopeasti
March 12, 2026Täyttä V4-mallia ei ole vieläkään virallisesti julkaistu

V4 Lite -merkinnän ilmestyminen March 9 on tähän mennessä konkreettisin signaali. Vaikka yksityiskohdat ovat vähäisiä, se viittaa siihen, että ainakin pienempi variantti V4-perheestä on loppusuoralla. Huhuttu ~200B parametrin määrä V4 Lite -mallille tekisi siitä huomattavasti saavutettavamman kuin täysi trillion-parameter-malli, tarjoten silti esimakua V4:n arkkitehtuurisista keksinnöistä, kuten Engram-muistista.

Viivästyksiin voi olla useita syitä:

  • Koulutus muulla kuin Nvidia-laitteistolla tuo mukanaan uudenlaisia teknisiä haasteita
  • Benchmark-tavoitteita ei ehkä saavutettu ensimmäisillä koulutuskierroksilla
  • Sääntelyyn liittyvät seikat Kiinan AI-hallintokehysten ympärillä
  • Geopoliittinen ajoitus -- kiinalaisten laboratorioiden suuret AI-julkaisut herättävät tarkkaa seurantaa

Mitä tämä tarkoittaa kehittäjille

Riippumatta tarkasta julkaisupäivästä, DeepSeek V4:llä on vaikutuksia, joihin kannattaa varautua.

Jos benchmarkit pitävät paikkansa

Avointa lähdekoodia oleva malli, joka vastaa Claude Opus 4.5 ja GPT-5.3 -malleja koodaustehtävissä, muuttaisi build-vs-buy-laskelmia AI-pohjaisille kehitystyökaluille. Yrityksillä, jotka tällä hetkellä maksavat merkittäviä API-kustannuksia huipputason koodauskyvyistä, olisi itse isännöitävä vaihtoehto. Tämä luo laskupainetta API-hinnoitteluun koko toimialalla -- mikä hyödyttää kehittäjiä riippumatta siitä, mitä mallia he käyttävät.

Jos Engram toimii kuten väitetään

Malli, joka käsittelee luotettavasti miljoonan tokenin konteksteja, vähentäisi RAG-arkkitehtuurien monimutkaisuutta. Sen sijaan, että rakennettaisiin monimutkaisia chunking-, embedding- ja hakuputkia, kehittäjät voisivat potentiaalisesti syöttää kokonaisia koodikantoja tai dokumenttikokoelmia suoraan mallille. Tämä ei poista RAG:n tarvetta kokonaan (kustannukset ja viive merkitsevät edelleen), mutta se yksinkertaistaa arkkitehtuuria monissa käyttötapauksissa.

Jos multimodaalinen generointi on kilpailukykyistä

Avoimen lähdekoodin kuva- ja videogenerointi avaisi luovia ja tuotekehityksellisiä käyttötapauksia, jotka vaativat tällä hetkellä kalliita suljettuja API-rajapintoja. Pienet tiimit ja indie-kehittäjät saisivat käyttöönsä kykyjä, jotka on tällä hetkellä rajattu jonotuslistojen ja enterprise-hinnoittelun taakse.

Mitä tehdä nyt

  1. Seuraa virallista julkaisua -- seuraa DeepSeek's virallisia kanavia huhujen sijaan
  2. Valmistele infrastruktuurisi -- jos aiot isännöidä mallia itse, varmista että sinulla on GPU-laitteisto (vähintään 2x RTX 4090 kvantisoitua inferenceä varten)
  3. Suunnittele evaluointisi -- päätä mitkä benchmarkit ja käyttötapaukset ovat tärkeitä sovelluksillesi, jotta voit testata ne nopeasti, kun weights ovat saatavilla
  4. Pysy skeptisenä -- vuodetut benchmarkit ovat markkinointia, kunnes ne on vahvistettu riippumattomasti; arvioi malli omilla tehtävilläsi ennen infrastruktuuripäätöksiä

Johtopäätös

DeepSeek V4 edustaa sitä, mikä voisi olla vuoden 2026 merkittävin avoimen lähdekoodin AI-julkaisu. Trillion-parameter MoE-malli miljoonan tokenin kontekstilla, natiiveilla multimodaalisilla kyvyillä ja koodaus-benchmarkeilla, jotka haastavat parhaat suljetut mallit -- kaikki Apache 2.0 -lisenssillä -- olisi aito käännekohta AI-kehittäjäekosysteemille.

Avainsana on "voisi". Benchmark-väitteet ovat vahvistamatta. Julkaisupäivä on edelleen epävarma. Engram-muistijärjestelmä vaatii riippumatonta arviointia. Ja muulla kuin Nvidia-laitteistolla tässä mittakaavassa koulutetun mallin käytännön suorituskyky on aidosti tuntematonta aluetta.

Selvää on, että kuilu avoimen lähdekoodin ja suljettujen AI-mallien välillä kapenee jatkuvasti, ja DeepSeek on yksi keskeisistä voimista tässä kehityksessä. Julkaistiinpa V4 sitten kaikkien väitteiden veroisena tai joiltakin osin vajavaisena, sen julkaisu tulee olemaan yksi vuoden tärkeimmistä tapahtumista AI-kehityksessä.

Päivitämme tätä artikkelia sitä mukaa, kun uutta tietoa tulee saataville. Seuraa uutisointiamme saadaksesi viimeisimmät tiedot DeepSeek V4 -mallista ja muusta AI-kehityksestä.

Back to all news
Enjoyed this article?

Rakenna NxCodella

Muuta ideasi toimivaksi sovellukseksi — koodausta ei tarvita.

Yli 46 000 kehittäjää rakensi NxCodella tässä kuussa

Rakenna ideasi AI:lla

Kuvaile mitä haluat — NxCode rakentaa sen puolestasi.

Yli 46 000 kehittäjää rakensi NxCodella tässä kuussa