Vývoj aplikací s Gemini 3.1 Pro: Vývojářská příručka k API, kódování a vibe codingu (2026)
← Back to news

Vývoj aplikací s Gemini 3.1 Pro: Vývojářská příručka k API, kódování a vibe codingu (2026)

T

Tým NxCode

11 min read

Vývoj aplikací s Gemini 3.1 Pro: Vývojářská příručka k API, kódování a vibe codingu

19. února 2026 — Gemini 3.1 Pro právě vyšla a je to jeden z nejsilnějších dostupných modelů pro kódování: 80,6 % na SWE-Bench Verified, 2887 Elo na LiveCodeBench a kontextové okno o velikosti 1M tokenů při ceně 2 $ za milion vstupních tokenů. To je špičkové kódování za zlomek ceny.

Tato příručka je určena pro vývojáře, kteří s ním chtějí začít stavět ještě dnes. Probereme nastavení API, ukázky kódu v Pythonu a Node.js, úrovně přemýšlení, context caching pro optimalizaci nákladů a to, jak Gemini 3.1 Pro zapadá do workflow vibe codingu.


Začínáme

Možnost 1: Google AI Studio (Zdarma, bez nastavení)

Nejrychlejší způsob, jak vyzkoušet Gemini 3.1 Pro:

  1. Přejděte na aistudio.google.com
  2. Přihlaste se pomocí svého Google účtu
  3. V rozbalovací nabídce modelů vyberte Gemini 3.1 Pro Preview
  4. Začněte psát prompty

AI Studio je zdarma s limity četnosti (rate limits) — skvělé pro prototypování a experimentování.

Možnost 2: API klíč (Pro stavbu aplikací)

  1. V AI Studiu přejděte na Get API KeyCreate API Key
  2. Klíč bezpečně uložte (nikdy jej neukládejte do správy verzí)
  3. Nainstalujte SDK:
# Python
pip install google-genai

# Node.js
npm install @google/genai

Vaše první volání API

Python

from google import genai

client = genai.Client(api_key="YOUR_API_KEY")

response = client.models.generate_content(
    model="gemini-3.1-pro-preview",
    contents="Write a Python function that finds the longest common subsequence of two strings. Include type hints and docstring."
)

print(response.text)

Node.js

import { GoogleGenAI } from "@google/genai";

const ai = new GoogleGenAI({ apiKey: "YOUR_API_KEY" });

const response = await ai.models.generateContent({
  model: "gemini-3.1-pro-preview",
  contents: "Write a TypeScript Express middleware that validates JWT tokens and extracts user info.",
});

console.log(response.text);

S úrovněmi přemýšlení (Thinking Levels)

# Vysoká úroveň přemýšlení pro komplexní ladění
response = client.models.generate_content(
    model="gemini-3.1-pro-preview",
    contents="""
    This Go server has a race condition that causes intermittent 500 errors
    under load. Here's the relevant code:

    [paste your code here]

    Find the race condition and explain the fix.
    """,
    config={
        "thinking_config": {"thinking_level": "HIGH"}
    }
)

Kódování s Gemini 3.1 Pro

Kontext benchmarků

Než se ponoříme do schopností, zde je postavení Gemini 3.1 Pro mezi modely pro kódování:

BenchmarkGemini 3.1 ProGPT-5.3-CodexClaude Opus 4.6
SWE-Bench Verified80,6 %76,2 %72,6 %
Terminal-Bench 2.068,5 %77,3 %
LiveCodeBench Pro2887 Elo

Je to 15% zlepšení oproti nejlepším běhům Gemini 3 Pro Preview, přičemž k dosažení lepších výsledků využívá méně výstupních tokenů.

Generování kódu

Gemini 3.1 Pro generuje kód v produkční kvalitě napříč jazyky. Kontext 1M tokenů znamená, že můžete zahrnout svou stávající codebase pro generování s vědomím kontextu:

# Načtení kontextu vaší codebase
with open("codebase_context.txt", "r") as f:
    codebase = f.read()

response = client.models.generate_content(
    model="gemini-3.1-pro-preview",
    contents=f"""
    Here is my current codebase:

    {codebase}

    Add a new API endpoint POST /api/users/bulk-import that:
    - Accepts a CSV file upload
    - Validates each row against the User schema
    - Inserts valid records in batches of 100
    - Returns a summary of successes and failures
    - Follow the existing patterns and coding style
    """,
    config={
        "thinking_config": {"thinking_level": "MEDIUM"}
    }
)

Ladění (Debugging)

Vkládejte chybové protokoly, stack trace a zdrojový kód dohromady. Úroveň přemýšlení High stojí za ty náklady navíc u komplexních chyb:

# Příklad ladění s vysokou úrovní uvažování
response = client.models.generate_content(
    model="gemini-3.1-pro-preview",
    contents="""
    Error: Connection pool exhausted after 30 seconds
    Stack trace:
    [paste stack trace]

    Relevant source files:
    [paste db.py, connection_pool.py, api_handler.py]

    This only happens under concurrent requests (>50 rps).
    Find the root cause.
    """,
    config={
        "thinking_config": {"thinking_level": "HIGH"}
    }
)

Revize kódu (Code Review)

Úroveň přemýšlení Medium poskytuje vyvážené revize bez nadměrné analýzy triviálního kódu:

response = client.models.generate_content(
    model="gemini-3.1-pro-preview",
    contents=f"""
    Review this pull request diff for:
    1. Bugs or logic errors
    2. Security vulnerabilities (SQL injection, XSS, etc.)
    3. Performance issues
    4. Adherence to project conventions

    Diff:
    {diff_content}
    """,
    config={
        "thinking_config": {"thinking_level": "MEDIUM"}
    }
)

Výhoda kontextu 1M tokenů

Kontextové okno Gemini 3.1 Pro o velikosti 1 milionu tokenů mění způsob, jakým pracujete s kódem. Místo vkládání ústřižků můžete načíst celé projekty.

Referenční tabulka velikosti kontextu

Co můžete načístPřibližný počet tokenů
Jeden soubor (500 řádků)~2K tokenů
Malý projekt (50 souborů)~100K tokenů
Střední projekt (200 souborů)~400K tokenů
Velký projekt (500 souborů)~1M tokenů

Analýza celé codebase

import os

def load_codebase(root_dir, extensions=('.py', '.js', '.ts', '.jsx', '.tsx')):
    """Načte všechny zdrojové soubory do jednoho kontextového řetězce."""
    files = []
    for dirpath, _, filenames in os.walk(root_dir):
        for filename in filenames:
            if any(filename.endswith(ext) for ext in extensions):
                filepath = os.path.join(dirpath, filename)
                with open(filepath, 'r', errors='ignore') as f:
                    content = f.read()
                files.append(f"=== {filepath} ===\n{content}\n")
    return "\n".join(files)

codebase = load_codebase("./src")

response = client.models.generate_content(
    model="gemini-3.1-pro-preview",
    contents=f"""
    Analyze this entire codebase and identify:
    1. Architectural issues or anti-patterns
    2. Dead code that can be removed
    3. Functions that should be refactored
    4. Missing error handling at system boundaries

    Codebase:
    {codebase}
    """
)

To je něco, co s modely s kontextem 200K tokenů prostě bez dělení na části a ztráty souvislostí mezi soubory neuděláte.


Úrovně přemýšlení: Low, Medium, High

Úrovně přemýšlení vám umožňují ovládat kompromis mezi náklady a kvalitou u každého požadavku.

ÚroveňPřípady užitíRežie tokenůDopad na cenu
LowAutomatické doplňování, jednoduché vyhledávání, formátování, klasifikaceMinimální~1x
MediumRevize kódu, sumarizace, mírná analýza, generování obsahuStřední~2-3x
HighKomplexní ladění, vícestupňové uvažování, architektonická rozhodnutíVýznamná~5-10x

Praktické pokyny

  • Low: "Převeď tento JSON na TypeScript interface" — není potřeba hluboké uvažování.
  • Medium: "Zkontroluj tento PR z hlediska chyb a bezpečnosti" — vyžaduje analýzu, ale ne vyčerpávající.
  • High: "Tento distribuovaný systém má při zátěži občasnou chybu konzistence. Zde je 15 souborů…" — vyžaduje hluboké uvažování napříč soubory.
# Přepínání úrovně přemýšlení podle složitosti úkolu
def ask_gemini(prompt, complexity="medium"):
    levels = {"low": "LOW", "medium": "MEDIUM", "high": "HIGH"}

    return client.models.generate_content(
        model="gemini-3.1-pro-preview",
        contents=prompt,
        config={
            "thinking_config": {"thinking_level": levels[complexity]}
        }
    )

Optimalizace nákladů

Context Caching

Pokud se vaše aplikace opakovaně dotazuje na stejnou codebase nebo dokumentaci, context caching snižuje náklady na vstup o 75 %:

CenyStandardníCachované
Vstup (za 1M tokenů)2,00 $0,50 $
Výstup (za 1M tokenů)12,00 $12,00 $
# Vytvoření cachovaného kontextu pro vaši codebase
cached_content = client.caches.create(
    model="gemini-3.1-pro-preview",
    contents=[{"role": "user", "parts": [{"text": codebase}]}],
    ttl="3600s"  # Cache na 1 hodinu
)

# Následné dotazy využívají cachovaný kontext
response = client.models.generate_content(
    model="gemini-3.1-pro-preview",
    contents="Find all SQL injection vulnerabilities in this codebase",
    cached_content=cached_content.name
)

Srovnání nákladů na workflow kódování

Předpokládejme 500 tisíc tokenů kontextu codebase + 1 tisíc tokenů dotazu, 100 dotazů denně:

StrategieDenní náklady
Gemini 3.1 Pro (bez cachování)~$100
Gemini 3.1 Pro (s cachováním)~$27
Claude Opus 4.6 (bez cachování)~$750

Další tipy pro optimalizaci

  1. Správná volba úrovně přemýšlení: Používejte Low pro 80 % úkolů, Medium pro 15 % a High pro 5 %.
  2. Dávkování podobných požadavků: Seskupujte úkoly revize kódu pro umoření nákladů na načítání kontextu.
  3. Agresivní cachování: Pokud se na stejné dokumenty/kód ptáte více než 3x, cachujte je.
  4. Používejte Gemini 3 Flash pro jednoduché úkoly, které nevyžadují uvažování na úrovni Pro.

Vibe Coding s Gemini 3.1 Pro

Vibe coding je praxe popisování toho, co chcete, v přirozeném jazyce a ponechání generování kódu na AI. Gemini 3.1 Pro je zde obzvláště silný, protože rozumí záměru návrhu, nikoli jen syntaxi.

Jak Gemini rozumí "Vibe"

Tým společnosti Hostinger poznamenal, že Gemini 3.1 Pro překládá "směr, styl a produktový záměr" do kódu. Když byl požádán o vytvoření portfolia s ponurým literárním tématem, dokázal si odvodit atmosférický tón a navrhnout odpovídající rozhraní.

Generování SVG

Výjimečná funkce: Gemini 3.1 Pro generuje animovaná SVG přímo z textových popisů. Protože jsou SVG kód, zůstávají ostrá při jakémkoli rozlišení:

response = client.models.generate_content(
    model="gemini-3.1-pro-preview",
    contents="""
    Create an animated SVG logo for a tech startup called "Pulse AI".
    Design requirements:
    - Minimalist, modern style
    - Blue-to-purple gradient
    - Subtle pulse animation on the icon
    - 200x60px viewport
    - Clean, sharp edges
    """
)

# Přímé uložení SVG
with open("logo.svg", "w") as f:
    f.write(response.text)

Stavba celých aplikací

Zkombinujte sílu kódování Gemini 3.1 Pro s tvůrcem AI aplikací, jako je NxCode, a přejděte od nápadu k nasazené aplikaci:

  1. Popište svou aplikaci v přirozeném jazyce.
  2. Gemini vygeneruje codebase (frontend + backend + databáze).
  3. Kontrolujte a iterujte pomocí promptů vibe codingu.
  4. Nasaďte přímo do produkce.

Toto workflow je obzvláště výkonné, protože kontextové okno 1M tokenů Gemini dokáže pojmout celou vaši rostoucí codebase během iterací.


Integrace platformy

GitHub Copilot

Gemini 3.1 Pro je nyní k dispozici v GitHub Copilot:

  1. Otevřete nastavení GitHub Copilot.
  2. V selektoru modelů vyberte Gemini 3.1 Pro.
  3. Používejte inline doplňování a chat jako obvykle.

Gemini CLI

Pro vývoj v terminálu:

# Instalace
npm install -g @anthropic-ai/gemini-cli

# Použití
gemini --model gemini-3.1-pro-preview "Refactor this function to use async/await"

# Přesměrování kódu na vstup
cat src/server.js | gemini --model gemini-3.1-pro-preview "Review this code"

VS Code

K dispozici prostřednictvím rozšíření Copilot. V rozbalovací nabídce modelů vyberte Gemini 3.1 Pro pro inline návrhy a chat.

Google Antigravity

Platforma Google pro agentní vývoj s hlubokou integrací Gemini. Nejlepší pro budování komplexních, vícestupňových AI agentů, kteří potřebují využívat nástroje a dlouhotrvající pracovní postupy.


Tipy a osvědčené postupy

  1. Začněte s přemýšlením na úrovni Medium, na High přejděte pouze v případě potřeby — ušetříte 3-5x více tokenů.
  2. Načítejte plný kontext předem — Gemini si s 1M tokeny poradí dobře; nefiltrujte data příliš agresivně.
  3. Používejte context caching pro jakoukoli opakovanou analýzu (revize kódu, dotazy na dokumentaci, generování testů).
  4. Buďte konkrétní ohledně formátu výstupu — "Vrať pouze kód, žádné vysvětlení" šetří výstupní tokeny.
  5. Kombinujte s Gemini 3 Flash pro dvouúrovňový systém: Flash pro jednoduché doplňování, Pro pro komplexní uvažování.
  6. Zahrňte do promptů příklady — Gemini 3.1 Pro se dobře drží vzorů.
  7. Jasně specifikujte jazyk a framework — "Napiš v TypeScriptu pomocí Next.js 15 s App Routerem".
  8. Kontrolujte vygenerovaný kód — 80,6 % na SWE-Bench je působivé, ale není to 100 %. Vždy testujte a provádějte revizi.

Závěr

Gemini 3.1 Pro dává vývojářům špičkové možnosti kódování za příznivé ceny. Kontextové okno o velikosti 1M tokenů skutečně mění pravidla hry pro analýzu na úrovni celé codebase a úrovně přemýšlení poskytují jemnou kontrolu nad náklady a kvalitou.

Další informace o tom, jak AI mění vývoj, najdete v naší příručce pro vibe coding a v porovnání Cursor vs Windsurf vs Claude Code. Kompletní rozpis schopností Gemini 3.1 Pro nad rámec kódování naleznete v naší kompletní příručce.

Back to all news
Enjoyed this article?

Stavějte s NxCode

Přeměňte svůj nápad v funkční aplikaci — bez programování.

46 000+ vývojářů stavělo s NxCode tento měsíc

Vyzkoušejte sami

Popište, co chcete — NxCode to postaví za vás.

46 000+ vývojářů stavělo s NxCode tento měsíc