GPT-5.4 API Developer Guide: Reasoning Effort, Computer Use, a Code Examples (2026)
← Vissza a hírekhez

GPT-5.4 API Developer Guide: Reasoning Effort, Computer Use, a Code Examples (2026)

N

NxCode Team

11 min read

Legfontosabb tudnivalók

  • Öt következtetési erőfeszítési szint: A reasoning.effort paraméter (none, low, medium, high, xhigh) szabályozza a költség-minőség kompromisszumot kérésenként -- a none úgy viselkedik, mint egy nem gondolkodó modell (leggyorsabb/legolcsóbb), míg az xhigh maximális mélységet biztosít 3-5x-ös költség mellett.
  • Natív számítógép-használat API-n keresztül: A GPT-5.4 képes asztali alkalmazások kezelésére, gombokra való kattintásra és a felhasználói felületeken való autonóm navigációra, 75%-ot elérve az OSWorld benchmarkon (meghaladva a 72.4%-os emberi szakértői bázisértéket) -- ez a computer_use tool típus átadásával engedélyezhető.
  • 1M+ tokens kontextus $2.50/$15 áron: Az 1,050,000-tokens bemeneti ablak teljes kódbázisokat dolgoz fel egyetlen kérésben, bár a bemeneti árazás megduplázódik 272K tokens felett.
  • A GPT-5.4 Pro 12x többe kerül: Tartsa fenn a $30/$180 per millió tokens árazású Pro variánst a nagy tétű feladatokhoz, ahol a pontosság kritikus -- a munkafolyamatok túlnyomó többségéhez használja az alapértelmezett GPT-5.4 modellt.

GPT-5.4 API Developer Guide: Következtetési erőfeszítés, számítógép-használat és kódpéldák

March 11, 2026 -- A GPT-5.4 az OpenAI eddigi legfejlettebb modellje, és olyan API funkciókkal érkezik, amelyek jelentősen megváltoztatják a fejlesztés módját. Állítható következtetési erőfeszítés, natív számítógép-használat, 1M+ tokens kontextusablak és jelentősen továbbfejlesztett kódgenerálás -- mindez ugyanazon a Chat Completions endpointon keresztül, amelyet már ismer.

Ez az útmutató azoknak a fejlesztőknek szól, akik még ma el szeretnének kezdeni építkezni a GPT-5.4 API használatával. Semmi marketingszöveg. Csak modell ID-k, paraméterek, kódpéldák, árazási matek és a gyakorlati kompromisszumok, amiket meg kell hoznia.


Gyorsindítás

Modell ID-k

ModellAPI IDLegjobb felhasználás
GPT-5.4gpt-5.4Általános feladatok, kódolás, következtetés, számítógép-használat
GPT-5.4 Progpt-5.4-proMaximális pontosság összetett, nagy tétű feladatoknál

Az első API hívása

from openai import OpenAI
client = OpenAI()

response = client.chat.completions.create(
    model="gpt-5.4",
    messages=[
        {"role": "user", "content": "Explain the tradeoffs between B-trees and LSM-trees for write-heavy workloads."}
    ]
)

print(response.choices[0].message.content)

Ennyi az egész. Ha már használt bármilyen GPT modellt a Chat Completions API-n keresztül, a GPT-5.4 egy az egyben beilleszthető a helyére. A különbségek az új paraméterekben és képességekben rejlenek.

Árazás

ModellBemenetKimenetMegjegyzések
GPT-5.4$2.50 / 1M tokens$15.00 / 1M tokensA bemenet duplázódik 272K tokens felett
GPT-5.4 Pro$30.00 / 1M tokens$180.00 / 1M tokensAz alapmodell költségének 12x-ese

Kontextusablak: 1,050,000 tokens bemenet, 128,000 tokens maximális kimenet.

Hozzáférési követelmények: Fizetős API fiók minimum $5 korábbi költéssel (Tier 1). Nem érhető el az ingyenes szinten.


Következtetési erőfeszítés: A gondolkodási keret szabályozása

A legfontosabb új paraméter a GPT-5.4-ben a reasoning.effort. Ez szabályozza, hogy a modell mennyi belső számítási kapacitást rendel a gondolatmeneti következtetéshez (chain-of-thought), mielőtt választ adna.

Az öt szint

SzintViselkedésMikor használjuk
noneNincs gondolatmenet. Leggyorsabb, legolcsóbb. Úgy viselkedik, mint egy nem gondolkodó modell.Egyszerű átalakítások, formázás, kinyerés
lowMinimális következtetés. Gyors ellenőrzések.Egyértelmű kérdés-válasz, osztályozás, összegzés
mediumKiegyensúlyozott következtetés. Ez az alapértelmezett.Általános kódolás, elemzés, legtöbb éles munkafolyamat
highKibővített következtetési láncok. Alaposabb.Összetett hibakeresés, architektúra döntések, több lépéses logika
xhighMaximális következtetési mélység. Leglassabb, de legpontosabb.Nehéz matematika, nagy refaktorálások, biztonsági auditok, kutatás

Kódpélda: Következtetési erőfeszítés beállítása

from openai import OpenAI
client = OpenAI()

# Magas szintű következtetés egy összetett refaktorálási feladathoz
response = client.chat.completions.create(
    model="gpt-5.4",
    reasoning={"effort": "high"},
    messages=[
        {"role": "user", "content": "Refactor this function to use async/await and handle all edge cases for network failures, timeouts, and partial responses:\n\ndef fetch_all_pages(url):\n    results = []\n    while url:\n        resp = requests.get(url)\n        data = resp.json()\n        results.extend(data['items'])\n        url = data.get('next')\n    return results"}
    ]
)

Gyakorlati útmutató a következtetési szintekhez

Kezdje a medium szinten, majd finomítson. A legtöbb API munkafolyamathoz az alapértelmezett beállítás a megfelelő választás. Így érdemes gondolkodni róla:

  • Latencia-érzékeny folyamatok (autokiegészítés, chat, valós idejű felhasználói felületek): Használja a low vagy none szintet. A sebességkülönbség jelentős, és az olyan feladatoknál, mint a szövegformázás vagy egyszerű keresések, a plusz következtetés nem ad hozzá értéket.

  • Kötegelt feldolgozás (kódellenőrzési folyamatok, dokumentumelemzés, adatkinyerés): Használja a high szintet. Itt nem várakoztatja a felhasználót, így a többlet latencia nem számít, a pontosságbeli javulás pedig több száz elem esetén összeadódik.

  • Nagy tétű egyedi kérések (kódbázis biztonsági auditja, összetett migrációs tervezés, új algoritmus tervezése): Használja az xhigh szintet. Itt térül meg a 12x-es számítási igény.

Költségvonzat: A magasabb következtetési erőfeszítés több belső tokens generálását (és kiszámlázását) jelenti. Egy xhigh szintű kérés 3--5x többe kerülhet, mint ugyanaz a kérés low szinten. Kísérje figyelemmel a tokens használatot a szintek módosításakor.


Számítógép-használat API

A GPT-5.4 az első olyan általános célú modell, amely natív számítógép-használati képességekkel rendelkezik. Az OSWorld benchmarkon 75%-ot ér el -- meghaladva a 72.4%-os emberi szakértői bázisértéket. Ez nem csupán képernyőképek köré épített megoldás; a modell natívan érti az asztali interfészeket, és autonóm módon képes kezelni azokat.

Hogyan működik

  1. Küld egy promptot, amely leírja, mit szeretne elvégeztetni
  2. A modell képernyőképeket készít a célkörnyezetről
  3. Egérkattintásokat, billentyűzetbevitelt és navigációs műveleteket generál
  4. Végrehajt egy build-run-verify-fix (építés-futtatás-ellenőrzés-javítás) ciklust saját munkája ellenőrzésére
  5. Visszaadja az eredményeket vagy pontosítást kér

Kódpélda: Számítógép-használat

from openai import OpenAI
client = OpenAI()

response = client.chat.completions.create(
    model="gpt-5.4",
    tools=[{"type": "computer_use"}],
    messages=[
        {"role": "user", "content": "Open the browser, go to github.com, and create a new repository called 'my-project'"}
    ]
)

Mire képes a számítógép-használat

  • Böngésző automatizálás: Űrlapok kitöltése, több lépéses folyamatok navigálása, strukturált adatok kinyerése dinamikus oldalakról
  • Asztali alkalmazások kezelése: Alkalmazások megnyitása, interakció natív felületekkel, adatok átvitele programok között
  • Tesztelési munkafolyamatok: UI folyamatok végigkattintása, vizuális állapotok ellenőrzése, regisztrációs folyamatok tesztelése
  • Adatbevitel: Adatok mozgatása táblázatok, CRM rendszerek és belső eszközök között

Korlátok, amiket ismerni kell

  • Latencia: Minden műveleti ciklus egy képernyőképből, modell-inferenciából és műveletvégrehajtásból áll. A több lépéses feladatok végrehajtása időt vesz igénybe.
  • Felügyelet szükséges: Ne futtasson felügyelet nélküli számítógép-használatot érzékeny rendszereken. A modell félrekattinthat, félreértelmezhet UI elemeket, vagy nem szándékos műveleteket hajthat végre.
  • Környezeti beállítás: A számítógép-használathoz megjelenítő környezet szükséges. Szerveroldali automatizáláshoz virtuális kijelzőre van szükség (pl. Xvfb Linuxon vagy virtuális asztal).
  • Alapértelmezés szerint nincs fájlrendszer-hozzáférés: A számítógép-használat a felhasználói felületen keresztül történik, nem közvetlen fájlrendszer-hívásokkal. Hibrid munkafolyamatokhoz párosítsa kódvégrehajtási eszközökkel.

Kódolás a GPT-5.4 használatával

A GPT-5.4 örökölte és továbbfejlesztette a GPT-5.3 Codex kódolási képességeit. A benchmarkok önmagukért beszélnek:

BenchmarkGPT-5.4 pontszámMit tesztel
SWE-Bench Pro57.7%Valós GitHub problémák megoldása
SWE-Bench Verified~80%Az SWE-Bench válogatott részhalmaza
Terminal-Bench 2.075.1%Terminal-alapú fejlesztési feladatok

Miben más, mint a GPT-5.3 Codex

  • 47%-kal kevesebb tokens összetett feladatoknál -- kevésbé bőbeszédű kimenet, tömörebb kód
  • Több fájlt érintő módosítások kevesebb újrapróbálkozással -- a fájlok közötti függőségek jobb megértése
  • Követi a repo-specifikus mintákat -- alkalmazkodik a kódbázis konvencióihoz, ha megkapja a kontextust
  • 33%-kal kevesebb ténybeli hiba -- kevesebb hallucináció az API hivatkozásokban, könyvtárhasználatban és konfigurációkban

Tippek a jobb kódgeneráláshoz

1. Használjon system promptokat a kódolási szabványok rögzítéséhez.

response = client.chat.completions.create(
    model="gpt-5.4",
    reasoning={"effort": "high"},
    messages=[
        {"role": "system", "content": "You are a senior Python developer. Follow PEP 8. Use type hints. Write docstrings in Google style. Prefer composition over inheritance. Use dataclasses for DTOs."},
        {"role": "user", "content": "Implement a retry decorator with exponential backoff, jitter, and configurable max retries."}
    ]
)

2. Adja meg a tényleges kódot kontextusként. A GPT-5.4 1M tokens kontextusablaka azt jelenti, hogy teljes modulokat vagy akár teljes repókat is beilleszthet. A modell lényegesen jobb kódot produkál, ha látja a meglévő mintákat, típusokat és konvenciókat.

3. Állítsa a következtetési erőfeszítést high vagy xhigh szintre összetett módosításoknál. Az egyszerű hibajavítások jól működnek medium szinten is, de az architekturális refaktorálások, migrációk és több fájlt érintő módosítások mérhetően profitálnak a magasabb következtetési erőfeszítésből.

4. Használja a max_completion_tokens paramétert a túl hosszú válaszok elkerülésére. Kódgenerálásnál állítson be egy ésszerű korlátot, hogy ne kelljen fizetnie olyan bőbeszédű magyarázatokért, amelyeket nem kért.

response = client.chat.completions.create(
    model="gpt-5.4",
    messages=[...],
    max_completion_tokens=4096
)

Stratégiák nagy kontextushoz

Az 1,050,000-tokens kontextusablak a GPT-5.4 csendes szuperereje. Így használhatja hatékonyan -- elkerülve a költségcsapdákat.

A 272K feletti felár

A bemeneti árazás megduplázódik, amint egyetlen kérésben túllépi a 272K tokens mennyiséget. Ez azt jelenti, hogy egy 500K-tokens kérés hozzávetőleges költsége:

  • Első 272K tokens: 272K x $2.50/1M = $0.68
  • Maradék 228K tokens: 228K x $5.00/1M = $1.14
  • Összes bemeneti költség: $1.82

Összehasonlításképpen, ugyanez a kérés standard árazással $1.25-ba kerülne. A felár ebben az esetben ~46%-kal növeli a számlát.

Kódpélda: Nagy kontextus használata

from openai import OpenAI
client = OpenAI()

# Teljes kódbázis betöltése a kontextusba
with open("codebase_dump.txt", "r") as f:
    full_codebase_content = f.read()

response = client.chat.completions.create(
    model="gpt-5.4",
    messages=[
        {"role": "system", "content": full_codebase_content},  # akár 1M tokens
        {"role": "user", "content": "Find all security vulnerabilities in this codebase"}
    ],
    max_completion_tokens=8192
)

Best practice-ek nagy kontextusokhoz

Ajánlott:

  • A legfontosabb fájlokat helyezze előre. A modell a kontextus elejére és végére figyel a legjobban. A feladat szempontjából legfontosabb fájlokat tegye az elejére.
  • Használja a system message-et a referenciákhoz. A kódbázist, dokumentációt vagy adatokat a system message-be helyezze. A tényleges utasításokat a user message-be írja.
  • Állítsa be expliciten a max_completion_tokens értéket. A 128K-s maximális kimenet mellett egy korlát nélküli válasz nagy kontextus esetén gyorsan megdrágulhat.

Kerülendő:

  • Ne használja mindig a teljes ablakot. Ha a feladathoz csak 50K tokens kontextus kell, ne duzzassza fel 1M-ra. A bemeneti tokens után akkor is fizetnie kell, ha a modellnek nincs rájuk szüksége.
  • Ne hagyja figyelmen kívül a 272K-s határt. Úgy strukturálja a promptokat, hogy lehetőség szerint 272K alatt maradjon. Ha 280K-nál jár, nézze meg, el tud-e távolítani 10K tokens kevésbé releváns kontextust a felár megspórolása érdekében.
  • Ne várjon tökéletes felidézést 1M tokens felett. A teljesítmény fokozatosan romlik a kontextus hosszával. A legnagyobb pontosság érdekében tartsa a legkritikusabb információkat az első 200K tokens-en belül.

GPT-5.4 vs GPT-5.4 Pro: Mikor váltsunk

A GPT-5.4 Pro 12x többe kerül, mint a standard GPT-5.4. Íme, mikor indokolt ez a költség.

SzempontGPT-5.4GPT-5.4 Pro
Bemeneti költség$2.50 / 1M$30.00 / 1M
Kimeneti költség$15.00 / 1M$180.00 / 1M
Legjobb felhasználásLegtöbb fejlesztési feladatMaximális pontosság nehéz problémáknál
Következtetési mélységErős minden szintenAlapértelmezés szerint mélyebb belső következtetés
LatenciaStandardMagasabb (több számítás kérésenként)

Használja a standard GPT-5.4-et, ha:

  • Kiszámítható költségű produkciós alkalmazásokat épít
  • A feladatok jól definiáltak (CRUD, átalakítások, standard kódolás)
  • Alacsonyabb latenciára van szüksége a felhasználói funkciókhoz
  • Nagy mennyiségű kérést dolgoz fel

Használja a GPT-5.4 Pro-t, ha:

  • Az egyedi kérések pontossága fontosabb, mint a költség (jogi elemzés, orvosi kutatás, biztonsági auditok)
  • Olyan újszerű problémákkal foglalkozik, amelyekre a modell nem látott sok példát
  • A több lépéses következtetési láncoknak kikezdhetetlennek kell lenniük
  • Versenytárs-benchmarkingot vagy értékelést végez

A gyakorlati szabály: Használja alapértelmezésként a standard verziót. Futtassa le a legnehezebb teszteseteit mindkét modellen. Ha a Pro konzisztensen jobb eredményeket produkál az adott munkafolyamatban, csak azokat a specifikus hívásokat váltsa át Pro-ra, a többit hagyja a standardon.


Migráció GPT-5.3 Codex-ről

Ha jelenleg GPT-5.3 Codex-et (vagy GPT-5.2-Codex-et) használ, íme a kulcsfontosságú különbségek, amikkel terveznie kell.

Ami változik

TerületGPT-5.3 CodexGPT-5.4
Modell IDgpt-5.3-codexgpt-5.4
Kontextusablak1,000,000 tokens1,050,000 tokens
Számítógép-használatNem érhető elNatív támogatás
Következtetési erőfeszítésTámogatottTámogatott (ugyanaz a paraméter)
Árazás (bemenet)Változatonként változó$2.50 / 1M tokens
Árazás (kimenet)Változatonként változó$15.00 / 1M tokens
Tokens hatékonyságBázisérték47%-kal kevesebb tokens összetett feladatoknál

Migrációs ellenőrzőlista

  1. Cserélje le a modell ID-t. Módosítsa a gpt-5.3-codex-et gpt-5.4-re az API hívásaiban.
  2. Tesztelje a következtetési erőfeszítés beállításait. Ugyanazok a szintek léteznek (none-tól xhigh-ig), de a GPT-5.4 eltérő minőségi kompromisszumokat produkálhat az egyes szinteken. Értékelje újra az alapértelmezett értékeit.
  3. Ellenőrizze a kimeneti tokens kereteket. A GPT-5.4 tömörebb (47%-kal kevesebb tokens összetett feladatoknál). Lehet, hogy csökkentheti a max_completion_tokens értékét, és spórolhat a kimeneti költségeken.
  4. Értékelje a számítógép-használatot. Ha korábban UI automatizálási megoldásai voltak (Selenium scriptek, egyedi eszközök), a GPT-5.4 natív számítógép-használata kiválthatja ezeket.
  5. Figyeljen a 272K-s felárra. Ha a Codex munkafolyamatai nagy kontextusokat használtak, de a Codex árazási struktúrája alatt maradtak, számolja újra a költségeket a GPT-5.4 sávos bemeneti árazásával.

Ami változatlan marad

  • A Chat Completions API endpoint azonos
  • A system/user/assistant üzenetszerepek ugyanúgy működnek
  • A streaming, a function calling és a tool use mind kompatibilis
  • A reasoning paraméter szintaxisa változatlan

Benchmarkok röviden

Gyors hivatkozásként íme, hogyan teljesít a GPT-5.4 a fejlesztők számára legfontosabb benchmarkokon:

BenchmarkPontszámMit mér
SWE-Bench Pro57.7%Összetett, valós szoftverfejlesztés
SWE-Bench Verified~80%Válogatott GitHub hibajavítások
Terminal-Bench 2.075.1%Terminal-alapú kódolási és rendszerfeladatok
OSWorld75.0%Asztali számítógép kezelése (emberi bázis: 72.4%)
GDPval83%Professzionális szellemi munka 44 foglalkozási körben

További minőségi mutatók:

  • 33%-kal kevesebb ténybeli hiba a GPT-5.2-höz képest
  • 18%-kal kevesebb hibás válasz összességében

Összegzés

A GPT-5.4 nem egy forradalmi API változás -- hanem egy gyakorlatias. Ugyanaz az endpoint, ugyanaz az üzenetformátum, ugyanazok a tool-use minták. Az újdonság az, hogy most már finomhangolt kontrollja van a következtetési számítások felett, natív számítógép-használatot kap külső eszközök nélkül, és a kontextusablak elég nagy teljes kódbázisokhoz, jelentősen jobb kódkimenet mellett.

A három legfontosabb teendő most:

  1. Állítsa be tudatosan a reasoning.effort értéket. Ne hagyatkozzon az alapértelmezettre minden hívásnál. Illessze az erőfeszítési szintet a feladat összetettségéhez, valamint a latencia- és költségkeretéhez.
  2. Kísérletezzen a számítógép-használattal. Ha vannak UI automatizálási munkafolyamatai, tesztelje őket a GPT-5.4 natív számítógép-használati képességeivel. Lehet, hogy nyugdíjazhatja a törékeny Selenium scripteket.
  3. Auditálja a kontextus használatát. A 272K-s felárhatárral és az 1M-s ablakkal valódi pénzt takaríthat meg (vagy pazarolhat el) attól függően, hogyan strukturálja a promptjait.

A modell már elérhető a gpt-5.4 azonosítóval a Tier 1+ szintű API fiókok számára. Kezdjen el építeni.

Vissza az összes hírhez
Tetszett ez a cikk?

Építs NxCode-dal

Alakítsd ötletedet működő alkalmazássá — kódolás nélkül.

46 000+ fejlesztő épített NxCode-dal ebben a hónapban

Próbáld ki magad

Írd le, mit szeretnél — az NxCode megépíti neked.

46 000+ fejlesztő épített NxCode-dal ebben a hónapban