DeepSeek V4 API -opas: Pricing, Setup & Code Examples (2026)
← Vissza a hírekhez

DeepSeek V4 API -opas: Pricing, Setup & Code Examples (2026)

N

NxCode Team

13 min read

Legfontosabb tudnivalók

  • OpenAI-kompatibilis API: A DeepSeek az OpenAI API formátumát követi -- a váltáshoz csak a base URL-t és az API key-t kell módosítani. Az OpenAI Python SDK, a LangChain és a LlamaIndex egyaránt működik alaphelyzetben.
  • 90%-os megtakarítás context caching használatával: A megosztott prompt prefixek automatikusan cache-elésre kerülnek $0.028/M tokens áron, szemben a cache miss esetén fizetendő $0.28/M árral -- nincs szükség kódmódosításra.
  • 5 millió ingyenes token a kezdéshez: Az új fiókok 5M ingyenes tokent kapnak bankkártya megadása nélkül, ami elegendő a széleskörű kísérletezéshez.
  • Két mód: deepseek-chat a standard feladatokhoz (8K max kimenet) és deepseek-reasoner a Chain-of-Thought érveléshez (64K max kimenet) -- a reasoner több tokent használ, de jobb eredményeket produkál nehéz problémák esetén.

DeepSeek V4 API útmutató: Árazás, beállítás és kódpéldák

A DeepSeek az LLM API-k árvezetőjévé vált. Az OpenAI és az Anthropic árait nagyságrendekkel alulmúló árazással és a teljes OpenAI SDK kompatibilitással a DeepSeek-re való átállás körülbelül öt percet vesz igénybe. Ez az útmutató végigvezeti Önt minden folyamaton: fiók beállítása, árazási számítások, Python és JavaScript kódpéldák, context caching és migráció OpenAI-ról.

Akár chatbotot épít, akár kódolási asszisztenst, vagy teljes kódbázisokat dolgoz fel az 1M tokenes kontextus ablak segítségével, ez az útmutató mindenre kiterjed.


Gyors kezdés: Az első DeepSeek API hívás

A kezdés három lépésből áll.

1. Fiók létrehozása

Látogasson el a platform.deepseek.com oldalra és regisztráljon. Az új fiókok 5 millió ingyenes tokent kapnak bankkártya megadása nélkül — ez elegendő a kiterjedt kísérletezéshez az elköteleződés előtt.

2. API Key generálása

Navigáljon az API Keys menüponthoz a dashboard-on. Kattintson a Create new API key gombra, adjon neki egy nevet, és azonnal másolja ki a kulcsot. Később nem fogja tudni megtekinteni.

Tárolja a kulcsot környezeti változóként:

export DEEPSEEK_API_KEY="sk-your-key-here"

3. Az első kérés elküldése

Mivel a DeepSeek az OpenAI API formátumát követi, használhatja a hivatalos OpenAI SDK-t. Először telepítse:

pip install openai

Ezután hozzon létre egy egyszerű chat completion hívást:

from openai import OpenAI

client = OpenAI(
    api_key="sk-your-key-here",
    base_url="https://api.deepseek.com"
)

response = client.chat.completions.create(
    model="deepseek-chat",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain Python decorators in three sentences."}
    ]
)

print(response.choices[0].message.content)

Ennyi az egész. Ha használta már korábban az OpenAI API-t, az egyetlen különbség a base_url és az API key.


Árazási részletek

A DeepSeek árazási modellje egyszerű és drasztikusan olcsóbb, mint a versenytársaké. A legfőbb megkülönböztető tényező a context caching, amely 90%-kal csökkenti a bemeneti költségeket az ismétlődő prompt prefixek esetén.

DeepSeek API árazás

Token típusKöltség 1M tokenenként
Bemenet (cache hit)$0.028
Bemenet (cache miss)$0.28
Kimenet$0.42

Összehasonlítás

Szolgáltató / ModellBemenet (per 1M)Kimenet (per 1M)
DeepSeek V4 (cache hit)$0.028$0.42
DeepSeek V4 (cache miss)$0.28$0.42
OpenAI GPT-5.4$2.50$10.00
Anthropic Claude Opus 4.6$15.00$75.00
Google Gemini 3.1 Pro$1.25$5.00

A számok magukért beszélnek. Cache hit esetén a DeepSeek nagyjából 90-szer olcsóbb, mint az OpenAI a bemeneti tokenek tekintetében, és 500-szor olcsóbb, mint a Claude Opus. Még caching nélkül is, a DeepSeek $0.28/M cache-miss rátája 9-szer olcsóbb, mint a GPT-5.4 bemeneti árazása.

Költségpélda

100 kérés feldolgozása, egyenként 2,000 tokenes system prompttal és 500 tokenes felhasználói lekérdezéssel, 1,000 tokenes válaszokat generálva:

  • Caching használatával (99 cache hit): ~$0.05 összesen
  • Caching nélkül: ~$0.29 összesen
  • Ugyanez a munkaterhelés GPT-5.4 használatával: ~$3.75 összesen

Nagy volumenű alkalmazások esetén a megtakarítás gyorsan összeadódik.


API módok: deepseek-chat vs deepseek-reasoner

A DeepSeek két különböző modellmódot kínál, amelyek mindegyike más-más feladatokra van optimalizálva.

deepseek-chat

A standard mód általános feladatokhoz. Gyors, hatékony és a legtöbb alkalmazáshoz megfelelő.

TulajdonságÉrték
Max bemeneti tokenek1,000,000
Max kimeneti tokenek8,192
Legjobb felhasználásChat, összegzés, kódgenerálás, általános Q&A

deepseek-reasoner

Lehetővé teszi a Chain-of-Thought (CoT) érvelést. A modell lépésről lépésre "gondolkodik", mielőtt végleges választ adna, ami drasztikusan javítja a pontosságot a nehéz problémák esetén.

TulajdonságÉrték
Max bemeneti tokenek1,000,000
Max kimeneti tokenek64,000
Legjobb felhasználásMatek, logikai rejtvények, összetett hibakeresés, több lépésből álló érvelés

A reasoner visszaküldi a gondolkodási folyamatot és a végleges választ is:

response = client.chat.completions.create(
    model="deepseek-reasoner",
    messages=[
        {"role": "user", "content": "Prove that the square root of 2 is irrational."}
    ]
)

# A gondolkodási lánc
print(response.choices[0].message.reasoning_content)

# A végleges válasz
print(response.choices[0].message.content)

Mikor használjuk a reasoner-t: Ha a feladat több lépésből álló logikát, matematikai bizonyítást vagy összetett kódhibakeresést igényel, használja a deepseek-reasoner módot. Minden másra a deepseek-chat gyorsabb és olcsóbb.


Kódpéldák

Python: Alapvető Chat Completion

import os
from openai import OpenAI

client = OpenAI(
    api_key=os.getenv("DEEPSEEK_API_KEY"),
    base_url="https://api.deepseek.com"
)

def ask_deepseek(prompt, system_prompt="You are a helpful assistant."):
    response = client.chat.completions.create(
        model="deepseek-chat",
        messages=[
            {"role": "system", "content": system_prompt},
            {"role": "user", "content": prompt}
        ],
        temperature=0.7,
        max_tokens=2048
    )
    return response.choices[0].message.content

answer = ask_deepseek("Write a Python function to merge two sorted lists.")
print(answer)

Python: Streaming

Hosszabb válaszok esetén a streaming jobb felhasználói élményt nyújt azáltal, hogy a tokeneket a generálásukkal egy időben adja vissza:

stream = client.chat.completions.create(
    model="deepseek-chat",
    messages=[
        {"role": "system", "content": "You are a senior software engineer."},
        {"role": "user", "content": "Review this code and suggest improvements:\n\ndef fib(n):\n  if n <= 1: return n\n  return fib(n-1) + fib(n-2)"}
    ],
    stream=True
)

for chunk in stream:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="", flush=True)

Python: Reasoner mód

response = client.chat.completions.create(
    model="deepseek-reasoner",
    messages=[
        {"role": "user", "content": "Find all bugs in this code and explain why each is a bug:\n\ndef quicksort(arr):\n    if len(arr) <= 1:\n        return arr\n    pivot = arr[0]\n    left = [x for x in arr if x < pivot]\n    right = [x for x in arr if x > pivot]\n    return quicksort(left) + [pivot] + quicksort(right)"}
    ]
)

print("Reasoning:", response.choices[0].message.reasoning_content)
print("Answer:", response.choices[0].message.content)

JavaScript / Node.js: Alapvető Chat

import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.DEEPSEEK_API_KEY,
  baseURL: "https://api.deepseek.com",
});

async function askDeepSeek(prompt) {
  const response = await client.chat.completions.create({
    model: "deepseek-chat",
    messages: [
      { role: "system", content: "You are a helpful assistant." },
      { role: "user", content: prompt },
    ],
  });

  return response.choices[0].message.content;
}

const answer = await askDeepSeek("Explain closures in JavaScript.");
console.log(answer);

JavaScript / Node.js: Streaming

const stream = await client.chat.completions.create({
  model: "deepseek-chat",
  messages: [
    { role: "user", content: "Write a REST API in Express.js with CRUD routes for a todo app." },
  ],
  stream: true,
});

for await (const chunk of stream) {
  const content = chunk.choices[0]?.delta?.content;
  if (content) {
    process.stdout.write(content);
  }
}

Context Caching: 90%-os megtakarítás ismételt promptok esetén

A DeepSeek context caching funkciója az egyik legerősebb versenyelőnye, és nulla kódmódosítást igényel az Ön részéről.

Hogyan működik

Amikor kérést küld, a DeepSeek ellenőrzi, hogy a prompt eleje megegyezik-e egy korábban cache-elt prefixszel. Ha az első N token azonos egy közelmúltbeli kéréssel, akkor ezeket a tokeneket a cache-ből szolgálja ki csökkentett áron ($0.028/M szemben a $0.28/M árral).

Ez automatikusan történik. Nincs szükség cache kulcsok deklarálására, TTL-ek beállítására vagy az API hívások módosítására.

Mikor aktiválódik a caching

A caching akkor lép életbe, ha:

  • Ugyanaz a system prompt a kérések között. Ha minden kérés úgy kezdődik, hogy "You are a senior Python developer...", ez a prefix az első hívás után cache-elésre kerül.
  • Megosztott beszélgetési előzmények. A többfordulós beszélgetésekben a korábbi fordulókból felhalmozott előzmények cache-elésre kerülnek.
  • Kötegelt feldolgozás konzisztens sablonokkal. Ha ugyanazt az elemzési promptot futtatja különböző bemeneteken, csak a változó rész után kell a teljes árat fizetni.

A cache hitek maximalizálása

Hogy a legtöbbet hozza ki a cachingből:

  1. Helyezze előre a statikus tartalmat. Úgy strukturálja az üzeneteket, hogy a system prompt és minden fix utasítás a változó tartalom elé kerüljön.
  2. Tartsa azonosnak a system promptokat. Még egyetlen karakter különbség is megszakítja a cache egyezést.
  3. Csoportosítsa a hasonló kéréseket. Küldje el a megosztott prefixekkel rendelkező kéréseket gyors egymásutánban, hogy a cache "meleg" maradjon.
  4. Használjon bátran hosszú system promptokat. Egy 10,000 tokenes system prompt szinte semmibe sem kerül az első kérés után, ha a cache-ben marad.

Migráció OpenAI-ról

Ha jelenleg az OpenAI API-t használja, a DeepSeek-re való váltás kétsoros módosítást jelent. Az API formátum azonos.

Előtte (OpenAI)

from openai import OpenAI

client = OpenAI(
    api_key="sk-openai-key-here"
    # base_url defaults to https://api.openai.com/v1
)

response = client.chat.completions.create(
    model="gpt-4o",
    messages=[{"role": "user", "content": "Hello"}]
)

Utána (DeepSeek)

from openai import OpenAI

client = OpenAI(
    api_key="sk-deepseek-key-here",
    base_url="https://api.deepseek.com"  # <-- adja hozzá ezt a sort
)

response = client.chat.completions.create(
    model="deepseek-chat",              # <-- módosítsa a modell nevét
    messages=[{"role": "user", "content": "Hello"}]
)

Ez a teljes migráció. Két sor változott: base_url és model. Minden más — az üzenetformátum, a streaming, a function calling, a JSON mód — ugyanúgy működik.

Környezeti változó alapú megközelítés

Olyan projektekhez, amelyeknek könnyen kell váltaniuk a szolgáltatók között:

import os
from openai import OpenAI

provider = os.getenv("LLM_PROVIDER", "deepseek")

config = {
    "deepseek": {
        "api_key": os.getenv("DEEPSEEK_API_KEY"),
        "base_url": "https://api.deepseek.com",
        "model": "deepseek-chat"
    },
    "openai": {
        "api_key": os.getenv("OPENAI_API_KEY"),
        "base_url": "https://api.openai.com/v1",
        "model": "gpt-4o"
    }
}

client = OpenAI(
    api_key=config[provider]["api_key"],
    base_url=config[provider]["base_url"]
)

DeepSeek használata nyílt forráskódú eszközökkel

Mivel a DeepSeek OpenAI-kompatibilis, együttműködik a nyílt forráskódú AI kódolási eszközök növekvő ökoszisztémájával. Íme a legnépszerűbbek.

OpenCode

Az OpenCode egy nyílt forráskódú, terminál-alapú AI kódolási asszisztens. Konfigurálja a DeepSeek használatára a szolgáltató beállításával a configban:

{
  "provider": {
    "name": "deepseek",
    "apiKey": "sk-your-key",
    "baseURL": "https://api.deepseek.com",
    "model": "deepseek-chat"
  }
}

Aider

Az Aider egy parancssori AI páros programozó eszköz. Irányítsa a DeepSeek felé környezeti változókkal:

export OPENAI_API_BASE="https://api.deepseek.com"
export OPENAI_API_KEY="sk-your-deepseek-key"
aider --model openai/deepseek-chat

Continue (VS Code bővítmény)

A Continue egy nyílt forráskódú AI kódasszisztens VS Code-hoz és JetBrains-hez. Adja hozzá a DeepSeek-et a ~/.continue/config.json fájlhoz:

{
  "models": [
    {
      "title": "DeepSeek V4",
      "provider": "openai",
      "model": "deepseek-chat",
      "apiBase": "https://api.deepseek.com",
      "apiKey": "sk-your-key"
    }
  ]
}

Mindhárom eszköz drop-in OpenAI helyettesítőként kezeli a DeepSeek-et. Nincs szükség speciális adapterekre vagy pluginokra.


Az 1M tokenes kontextus ablak kihasználása

A DeepSeek 1 millió tokenes kontextus ablaka olyan munkafolyamatokat tesz lehetővé, amelyek korábban kivitelezhetetlenek voltak.

Teljes kódbázis elemzése

Egy átlagos közepes méretű projekt (50,000 sornyi kód) nagyjából 500,000 token. A DeepSeek 1M kontextusával egyetlen promptba táplálhat egy teljes kódbázist a következőkhöz:

  • Architektúra felülvizsgálat. Kérje meg a modellt, hogy azonosítsa a körkörös függőségeket, a hiányzó absztrakciókat vagy az inkonzisztens mintákat a teljes projektben.
  • Fájlokon átívelő refaktorálás. Írja le a kívánt változtatást, és hagyja, hogy a modell koordinált módosításokat generáljon több fájlban.
  • Biztonsági auditok. Vizsgálja át a teljes kódbázist SQL injection, XSS és egyéb sebezhetőségek után kutatva egyetlen lépésben.

Praktikus tippek nagy kontextusokhoz

  1. Először adjon meg egy fájlfát. Kezdje a promptot a könyvtárstruktúrával, hogy a modell értse a projekt felépítését, mielőtt az egyes fájlokat olvasná.
  2. Használjon egyértelmű elválasztókat. Vegye körül minden fájlt jelölőkkel, például --- FILE: src/auth.py ---, hogy a modell hivatkozni tudjon konkrét fájlokra a válaszában.
  3. Tegyen fel célzott kérdéseket. Az 1M kontextus ablak nem jelenti azt, hogy homályos promptokra van szükség. Legyen konkrét azzal kapcsolatban, amit elemezni kíván.
  4. Kombinálja cachinggel. Ha több lekérdezést végez ugyanazon a kódbázison, a kódbázis rész az első kérés után cache-elésre kerül — a későbbi kérdések az eredeti hívás töredékébe kerülnek.

Legjobb gyakorlatok a költségoptimalizáláshoz

1. Promptok strukturálása a maximális cache hit eléréséhez

Helyezze a leghosszabb, legstabilabb tartalmat az üzenettömb elejére. A system promptoknak, few-shot példáknak és a referencia dokumentációnak meg kell előznie a változó felhasználói lekérdezést.

2. Alapértelmezés szerint a deepseek-chat használata

Tartsa fenn a deepseek-reasoner-t olyan feladatokhoz, amelyek valóban többlépcsős érvelést igényelnek. Az egyszerű generáláshoz, összegzéshez és kódkiegészítéshez a deepseek-chat gyorsabb és kevesebb tokent használ.

3. Megfelelő max_tokens beállítása

Ne állítson be magasabb max_tokens értéket a szükségesnél. Ha 200 tokenes választ vár, a max_tokens: 8192 beállítása önmagában nem kerül többe, de megakadályozza, hogy a modell korán leálljon, ha túlságosan bőbeszédűvé válik.

4. Hasonló kérések kötegelése

Csoportosítsa az azonos system promptot használó kéréseket, és küldje el őket gyors egymásutánban. Ez melegen tartja a cache-t, és biztosítja, hogy a legtöbb kérés eltalálja a cache-elt prefixet.

5. Token használat figyelése

Ellenőrizze az API válaszok usage mezőjét a tényleges fogyasztás nyomon követéséhez:

response = client.chat.completions.create(
    model="deepseek-chat",
    messages=[{"role": "user", "content": "Hello"}]
)

print(f"Input tokens: {response.usage.prompt_tokens}")
print(f"Output tokens: {response.usage.completion_tokens}")
print(f"Cache hit tokens: {response.usage.prompt_cache_hit_tokens}")
print(f"Cache miss tokens: {response.usage.prompt_cache_miss_tokens}")

6. Streaming használata hosszú kimeneteknél

A streaming nem takarít meg pénzt, de javítja az észlelt késleltetést. A felhasználók ezredmásodpercek alatt látják az első tokeneket, ahelyett, hogy a teljes válasz generálására várnának.


Összegzés

A DeepSeek API az agresszív árazást, az OpenAI-kompatibilitást és az 1M tokenes kontextus ablakot egy olyan csomagba ötvözi, amelyet nehéz figyelmen kívül hagyni. Az OpenAI-ról való migrációs útvonal triviális — módosítson két sor kódot, és a meglévő alkalmazása máris működik. A context caching automatikus költségmegtakarítást biztosít kódmódosítás nélkül. A nyílt forráskódú eszközök ökoszisztémája pedig már most első osztályú szolgáltatóként támogatja a DeepSeek-et.

A költségérzékeny alkalmazásokat, nagy volumenű feldolgozási folyamatokat vagy teljes kódbázis-elemző eszközöket építő fejlesztők számára a DeepSeek V4 komoly megfontolást érdemel. Kezdje az 5 millió ingyenes tokennel, végezzen benchmarkot a jelenlegi szolgáltatójával szemben, és hagyja, hogy a számok vezessék a döntését.

Vissza az összes hírhez
Tetszett ez a cikk?

Építs NxCode-dal

Alakítsd ötletedet működő alkalmazássá — kódolás nélkül.

46 000+ fejlesztő épített NxCode-dal ebben a hónapban

Próbáld ki magad

Írd le, mit szeretnél — az NxCode megépíti neked.

46 000+ fejlesztő épített NxCode-dal ebben a hónapban