DeepSeek V4 API -opas: Pricing, Setup & Code Examples (2026)
← Back to news

DeepSeek V4 API -opas: Pricing, Setup & Code Examples (2026)

N

NxCode Team

12 min read

Keskeiset asiat

  • OpenAI-yhteensopiva API: DeepSeek noudattaa OpenAI API -muotoa -- vaihda muuttamalla base URL ja API-avain. OpenAI Python SDK, LangChain ja LlamaIndex toimivat suoraan ilman erillistä säätöä.
  • 90% säästöt context caching -ominaisuudella: Jaetut prompt-etuliitteet välimuistitetaan automaattisesti hintaan $0.028/M tokens vs $0.28/M cache misses -tilanteissa -- koodimuutoksia ei tarvita.
  • 5 million ilmaista tokens-yksikköä aloitukseen: Uudet tilit saavat 5M ilmaista tokens-yksikköä ilman luottokorttia, mikä riittää laajaan kokeiluun.
  • Kaksi tilaa: deepseek-chat vakiotehtäviin (8K max output) ja deepseek-reasoner Chain-of-Thought-päättelyyn (64K max output) -- reasoner käyttää enemmän tokens-yksikköjä, mutta tuottaa parempia tuloksia vaikeissa ongelmissa.

DeepSeek V4 API -opas: Hinnoittelu, käyttöönotto & koodiesimerkit

DeepSeek on noussut LLM API -markkinoiden kustannusjohtajaksi. Hinnoittelulla, joka alittaa OpenAI- ja Anthropic-hinnat kertaluokalla, ja täydellä OpenAI SDK -yhteensopivuudella, siirtyminen DeepSeek-palveluun vie noin viisi minuuttia. Tämä opas käy läpi kaiken: tilin määrityksen, hinnoittelun laskukaavat, koodiesimerkit Python- ja JavaScript-kielillä, context caching -ominaisuuden ja migraation OpenAI-palvelusta.

Riippumatta siitä, rakennatko chatbotia, koodausavustajaa tai käsitteletkö kokonaisia koodikantoja 1M token context window -ominaisuudella, tämä opas auttaa sinua.


Pikaohje: Ensimmäinen DeepSeek API -kutsusi

Aloittaminen tapahtuu kolmessa vaiheessa.

1. Luo tili

Mene osoitteeseen platform.deepseek.com ja rekisteröidy. Uudet tilit saavat 5 million ilmaista tokens-yksikköä ilman luottokorttia — riittävästi laajaan kokeiluun ennen sitoutumista.

2. Luo API-avain

Siirry hallintapaneelin kohtaan API Keys. Klikkaa Create new API key, anna sille nimi ja kopioi avain välittömästi. Et voi nähdä sitä enää uudelleen.

Tallenna avain ympäristömuuttujaksi:

export DEEPSEEK_API_KEY="sk-your-key-here"

3. Tee ensimmäinen pyyntösi

Koska DeepSeek noudattaa OpenAI API -muotoa, voit käyttää virallista OpenAI SDK -kirjastoa. Asenna se ensin:

pip install openai

Tee sitten yksinkertainen chat completion -kutsu:

from openai import OpenAI

client = OpenAI(
    api_key="sk-your-key-here",
    base_url="https://api.deepseek.com"
)

response = client.chat.completions.create(
    model="deepseek-chat",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain Python decorators in three sentences."}
    ]
)

print(response.choices[0].message.content)

Tämä on siinä. Jos olet käyttänyt OpenAI API -palvelua aiemmin, ainoat erot ovat base_url ja API-avaimesi.


Hinnoittelun erittely

DeepSeek-palvelun hinnoittelumalli on selkeä ja huomattavasti halvempi kuin kilpailijoilla. Keskeinen erottava tekijä on context caching, joka vähentää syötekustannuksia 90% toistuvien prompt-etuliitteiden osalta.

DeepSeek API -hinnoittelu

Token-tyyppiKustannus per 1M tokens
Syöte (cache hit)$0.028
Syöte (cache miss)$0.28
Tuloste$0.42

Vertailu muihin

Tarjoaja / MalliSyöte (per 1M)Tuloste (per 1M)
DeepSeek V4 (cache hit)$0.028$0.42
DeepSeek V4 (cache miss)$0.28$0.42
OpenAI GPT-5.4$2.50$10.00
Anthropic Claude Opus 4.6$15.00$75.00
Google Gemini 3.1 Pro$1.25$5.00

Numerot puhuvat puolestaan. Cache hits -tilanteissa DeepSeek on karkeasti 90x halvempi kuin OpenAI syöte-tokensien osalta ja 500x halvempi kuin Claude Opus. Jopa ilman välimuistia DeepSeek-palvelun cache-miss-hinta $0.28/M on silti 9x halvempi kuin GPT-5.4-syötehinnoittelu.

Kustannusesimerkki

Käsitellään 100 pyyntöä, joista jokaisessa on 2,000-tokenin system prompt ja 500-tokenin käyttäjäkysely, generoiden 1,000-tokenin vastauksia:

  • Välimuistin kanssa (99 cache hits): ~$0.05 yhteensä
  • Ilman välimuistia: ~$0.29 yhteensä
  • Sama työmäärä GPT-5.4-mallilla: ~$3.75 yhteensä

Suuren volyymin sovelluksissa säästöt kumuloituvat nopeasti.


API-tilat: deepseek-chat vs deepseek-reasoner

DeepSeek tarjoaa kaksi erillistä mallitilaa, jotka on optimoitu eri tehtäviin.

deepseek-chat

Vakiotila yleiskäyttöisiin tehtäviin. Nopea, tehokas ja sopiva useimpiin sovelluksiin.

OminaisuusArvo
Max input tokens1,000,000
Max output tokens8,192
Soveltuu parhaitenChat, tiivistelmä, koodin generointi, yleinen Q&A

deepseek-reasoner

Mahdollistaa Chain-of-Thought (CoT) -päättelyn. Malli "ajattelee" vaiheittain ennen lopullisen vastauksen tuottamista, mikä parantaa tarkkuutta vaikeissa ongelmissa huomattavasti.

OminaisuusArvo
Max input tokens1,000,000
Max output tokens64,000
Soveltuu parhaitenMatematiikka, logiikkapähkinät, monimutkainen virheenkorjaus, monivaiheinen päättely

Reasoner palauttaa sekä päättelyprosessin että lopullisen vastauksen:

response = client.chat.completions.create(
    model="deepseek-reasoner",
    messages=[
        {"role": "user", "content": "Prove that the square root of 2 is irrational."}
    ]
)

# Päättelyketju
print(response.choices[0].message.reasoning_content)

# Lopullinen vastaus
print(response.choices[0].message.content)

Milloin käyttää reasoner-tilaa: Jos tehtävä vaatii monivaiheista logiikkaa, matemaattisia todistuksia tai monimutkaista koodin virheenkorjausta, käytä deepseek-reasoner-mallia. Kaikkeen muuhun deepseek-chat on nopeampi ja halvempi.


Koodiesimerkit

Python: Perus Chat Completion

import os
from openai import OpenAI

client = OpenAI(
    api_key=os.getenv("DEEPSEEK_API_KEY"),
    base_url="https://api.deepseek.com"
)

def ask_deepseek(prompt, system_prompt="You are a helpful assistant."):
    response = client.chat.completions.create(
        model="deepseek-chat",
        messages=[
            {"role": "system", "content": system_prompt},
            {"role": "user", "content": prompt}
        ],
        temperature=0.7,
        max_tokens=2048
    )
    return response.choices[0].message.content

answer = ask_deepseek("Write a Python function to merge two sorted lists.")
print(answer)

Python: Striimaus (Streaming)

Pitkissä vastauksissa striimaus tarjoaa paremman käyttäjäkokemuksen palauttamalla tokens-yksiköitä sitä mukaa kun niitä generoidaan:

stream = client.chat.completions.create(
    model="deepseek-chat",
    messages=[
        {"role": "system", "content": "You are a senior software engineer."},
        {"role": "user", "content": "Review this code and suggest improvements:\n\ndef fib(n):\n  if n <= 1: return n\n  return fib(n-1) + fib(n-2)"}
    ],
    stream=True
)

for chunk in stream:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="", flush=True)

Python: Reasoner-tila

response = client.chat.completions.create(
    model="deepseek-reasoner",
    messages=[
        {"role": "user", "content": "Find all bugs in this code and explain why each is a bug:\n\ndef quicksort(arr):\n    if len(arr) <= 1:\n        return arr\n    pivot = arr[0]\n    left = [x for x in arr if x < pivot]\n    right = [x for x in arr if x > pivot]\n    return quicksort(left) + [pivot] + quicksort(right)"}
    ]
)

print("Reasoning:", response.choices[0].message.reasoning_content)
print("Answer:", response.choices[0].message.content)

JavaScript / Node.js: Perus Chat

import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.DEEPSEEK_API_KEY,
  baseURL: "https://api.deepseek.com",
});

async function askDeepSeek(prompt) {
  const response = await client.chat.completions.create({
    model: "deepseek-chat",
    messages: [
      { role: "system", content: "You are a helpful assistant." },
      { role: "user", content: prompt },
    ],
  });

  return response.choices[0].message.content;
}

const answer = await askDeepSeek("Explain closures in JavaScript.");
console.log(answer);

JavaScript / Node.js: Striimaus

const stream = await client.chat.completions.create({
  model: "deepseek-chat",
  messages: [
    { role: "user", content: "Write a REST API in Express.js with CRUD routes for a todo app." },
  ],
  stream: true,
});

for await (const chunk of stream) {
  const content = chunk.choices[0]?.delta?.content;
  if (content) {
    process.stdout.write(content);
  }
}

Context Caching: 90% säästöt toistuvissa prompteissa

DeepSeek-palvelun context caching on yksi sen vahvimmista kilpailueduista, ja se vaatii nolla koodimuutosta puoleltasi.

Miten se toimii

Kun lähetät pyynnön, DeepSeek tarkistaa, vastaako prompt-viestisi alku aiemmin välimuistiin tallennettua etuliitettä. Jos ensimmäiset N tokens-yksikköä ovat identtisiä äskettäisen pyynnön kanssa, nuo tokens-yksiköt tarjoillaan välimuistista alennettuun hintaan ($0.028/M vs $0.28/M).

Tämä tapahtuu automaattisesti. Sinun ei tarvitse määrittää välimuistiavaimia, asettaa TTL-arvoja tai muokata API-kutsujasi millään tavalla.

Milloin välimuisti aktivoituu

Välimuisti aktivoituu, kun:

  • Sama system prompt pyyntöjen välillä. Jos jokainen pyyntö alkaa tekstillä "You are a senior Python developer...", tuo etuliite välimuistitetaan ensimmäisen kutsun jälkeen.
  • Jaettu keskusteluhistoria. Monivaiheisissa keskusteluissa aiempien vaiheiden kertynyt historia välimuistitetaan.
  • Eräajo yhdenmukaisilla malleilla. Saman analyysi-promptin ajaminen eri syötteillä tarkoittaa, että vain muuttuva osa aiheuttaa täyden hinnoittelun.

Cache hits -osien maksimointi

Saadaksesi kaiken irti välimuistista:

  1. Sijoita staattinen sisältö ensin. Rakenna viestisi niin, että system prompt ja mahdolliset kiinteät ohjeet tulevat ennen muuttuvaa sisältöä.
  2. Pidä system prompts -viestit identtisinä. Jopa yhden merkin ero rikkoo välimuistivastaavuuden.
  3. Ryhmittele samankaltaiset pyynnöt yhteen. Lähetä jaettuja etuliitteitä sisältävät pyynnöt nopeasti peräkkäin, jotta välimuisti pysyy lämpimänä.
  4. Käytä pitkiä system prompts -viestejä luottavaisesti. 10,000-tokenin system prompt ei maksa lähes mitään ensimmäisen pyynnön jälkeen, jos se pysyy välimuistissa.

Migraatio OpenAI-palvelusta

Jos käytät tällä hetkellä OpenAI API -palvelua, siirtyminen DeepSeek-palveluun on kahden rivin muutos. API-muoto on identtinen.

Ennen (OpenAI)

from openai import OpenAI

client = OpenAI(
    api_key="sk-openai-key-here"
    # base_url oletus on https://api.openai.com/v1
)

response = client.chat.completions.create(
    model="gpt-4o",
    messages=[{"role": "user", "content": "Hello"}]
)

Jälkeen (DeepSeek)

from openai import OpenAI

client = OpenAI(
    api_key="sk-deepseek-key-here",
    base_url="https://api.deepseek.com"  # <-- lisää tämä rivi
)

response = client.chat.completions.create(
    model="deepseek-chat",              # <-- vaihda mallin nimi
    messages=[{"role": "user", "content": "Hello"}]
)

Siinä on koko migraatio. Kaksi riviä muuttui: base_url ja model. Kaikki muu — viestimuoto, striimaus, function calling, JSON-tila — toimii samalla tavalla.

Ympäristömuuttujien käyttö

Projekteille, joiden on voitava vaihtaa tarjoajien välillä helposti:

import os
from openai import OpenAI

provider = os.getenv("LLM_PROVIDER", "deepseek")

config = {
    "deepseek": {
        "api_key": os.getenv("DEEPSEEK_API_KEY"),
        "base_url": "https://api.deepseek.com",
        "model": "deepseek-chat"
    },
    "openai": {
        "api_key": os.getenv("OPENAI_API_KEY"),
        "base_url": "https://api.openai.com/v1",
        "model": "gpt-4o"
    }
}

client = OpenAI(
    api_key=config[provider]["api_key"],
    base_url=config[provider]["base_url"]
)

DeepSeek-palvelun käyttö avoimen lähdekoodin työkalujen kanssa

Koska DeepSeek on OpenAI-yhteensopiva, se toimii avoimen lähdekoodin AI-koodaustyökalujen kasvavan ekosysteemin kanssa. Tässä ovat suosituimmat.

OpenCode

OpenCode on avoimen lähdekoodin terminaalipohjainen AI-koodausavustaja. Määritä se käyttämään DeepSeek-palvelua asettamalla tarjoaja asetuksiisi:

{
  "provider": {
    "name": "deepseek",
    "apiKey": "sk-your-key",
    "baseURL": "https://api.deepseek.com",
    "model": "deepseek-chat"
  }
}

Aider

Aider on komentorivipohjainen AI-pariohjelmoija. Ohjaa se DeepSeek-palveluun ympäristömuuttujilla:

export OPENAI_API_BASE="https://api.deepseek.com"
export OPENAI_API_KEY="sk-your-deepseek-key"
aider --model openai/deepseek-chat

Continue (VS Code -laajennus)

Continue on avoimen lähdekoodin AI-koodausavustaja VS Code- ja JetBrains-ympäristöihin. Lisää DeepSeek tiedostoon ~/.continue/config.json:

{
  "models": [
    {
      "title": "DeepSeek V4",
      "provider": "openai",
      "model": "deepseek-chat",
      "apiBase": "https://api.deepseek.com",
      "apiKey": "sk-your-key"
    }
  ]
}

Kaikki kolme työkalua käsittelevät DeepSeek-palvelua suoraan OpenAI-korvaajana. Erillisiä sovittimia tai lisäosia ei tarvita.


1M Token Context Window -ominaisuuden hyödyntäminen

DeepSeek-palvelun 1 million token context window avaa työnkulkuja, jotka olivat aiemmin epäkäytännöllisiä.

Koko koodikannan analyysi

Tyypillinen keskikokoinen projekti (50,000 koodiriviä) on karkeasti 500,000 tokens-yksikköä. DeepSeek-palvelun 1M kontekstilla voit syöttää koko koodikannan yhteen promptiin seuraavia varten:

  • Arkkitehtuurikatselmukset. Pyydä mallia tunnistamaan sykliset riippuvuudet, puuttuvat abstraktiot tai epäjohdonmukaiset mallit koko projektissa.
  • Tiedostojen välinen refaktorointi. Kuvaile haluttu muutos ja anna mallin generoida koordinoidut muokkaukset useisiin tiedostoihin.
  • Tietoturva-auditoinnit. Skannaa koko koodikanta SQL-injektioiden, XSS-haavoittuvuuksien ja muiden heikkouksien varalta yhdellä kertaa.

Käytännön vinkkejä laajoihin konteksteihin

  1. Tarjoa ensin tiedostopuu. Aloita prompt-viestisi hakemistorakenteella, jotta malli ymmärtää projektin rakenteen ennen yksittäisten tiedostojen lukemista.
  2. Käytä selkeitä erottimia. Kääri jokainen tiedosto merkintöihin kuten --- FILE: src/auth.py ---, jotta malli voi viitata tiettyihin tiedostoihin vastauksessaan.
  3. Esitä tarkennettuja kysymyksiä. 1M context window ei tarkoita, että tarvitset epämääräisiä prompteja. Ole täsmällinen siinä, mitä haluat analysoitavan.
  4. Yhdistä välimuistiin. Jos teet useita kyselyitä samaan koodikantaan, koodikanta-osuus välimuistitetaan ensimmäisen pyynnön jälkeen — seuraavat kysymykset maksavat vain murto-osan alkuperäisestä kutsusta.

Parhaat käytännöt kustannusoptimointiin

1. Rakenna promptit maksimoidaksesi Cache Hits -osumat

Sijoita pisin ja vakain sisältösi viestitaulukon alkuun. System prompts, few-shot-esimerkit ja viitedokumentaatio tulisi sijoittaa ennen muuttuvaa käyttäjäkyselyä.

2. Käytä oletuksena deepseek-chat-mallia

Varaa deepseek-reasoner tehtäviin, jotka todella vaativat monivaiheista päättelyä. Suoraviivaiseen generointiin, tiivistämiseen ja koodin täydentämiseen deepseek-chat on nopeampi ja kuluttaa vähemmän tokens-yksikköjä.

3. Aseta sopiva max_tokens

Älä aseta max_tokens-arvoa korkeammaksi kuin tarvitset. Jos odotat 200-tokenin vastausta, max_tokens: 8192 asettaminen ei sinänsä maksa enempää, mutta se estää mallia jatkamasta turhaan, jos se alkaa "höpöttämään".

4. Ryhmittele samankaltaiset pyynnöt

Ryhmittele pyynnöt, joilla on sama system prompt, ja lähetä ne nopeasti peräkkäin. Tämä pitää välimuistin lämpimänä ja varmistaa, että useimmat pyynnöt hyödyntävät välimuistitettua etuliitettä.

5. Seuraa Token-kulutusta

Tarkista API-vastausten usage-kenttä seurataksesi todellista kulutustasi:

response = client.chat.completions.create(
    model="deepseek-chat",
    messages=[{"role": "user", "content": "Hello"}]
)

print(f"Input tokens: {response.usage.prompt_tokens}")
print(f"Output tokens: {response.usage.completion_tokens}")
print(f"Cache hit tokens: {response.usage.prompt_cache_hit_tokens}")
print(f"Cache miss tokens: {response.usage.prompt_cache_miss_tokens}")

6. Käytä striimausta pitkiin tulosteisiin

Striimaus ei säästä rahaa, mutta se parantaa koettua viivettä. Käyttäjät näkevät ensimmäiset tokens-yksiköt millisekunneissa sen sijaan, että he odottaisivat koko vastauksen generoitumista.


Yhteenveto

DeepSeek API yhdistää aggressiivisen hinnoittelun, OpenAI-yhteensopivuuden ja 1M token context window -ominaisuuden paketiksi, jota on vaikea sivuuttaa. Migraatiopolku OpenAI-palvelusta on triviaali — muuta kaksi koodiriviä ja olemassa oleva sovelluksesi toimii. Context caching tarjoaa automaattisia kustannussäästöjä ilman koodimuutoksia. Ja avoimen lähdekoodin työkaluekosysteemi tukee jo DeepSeek-palvelua ensiluokkaisena tarjoajana.

Kehittäjille, jotka rakentavat kustannuskriittisiä sovelluksia, suuren volyymin prosessointiputkia tai koko koodikannan analysointityökaluja, DeepSeek V4 on vakavan harkinnan arvoinen. Aloita 5 million ilmaisella tokens-yksiköllä, vertaa nykyiseen tarjoajaasi ja anna numeroiden ohjata päätöstäsi.

Back to all news
Enjoyed this article?

Rakenna NxCodella

Muuta ideasi toimivaksi sovellukseksi — koodausta ei tarvita.

Yli 46 000 kehittäjää rakensi NxCodella tässä kuussa

Kokeile itse

Kuvaile mitä haluat — NxCode rakentaa sen puolestasi.

Yli 46 000 kehittäjää rakensi NxCodella tässä kuussa