Cursor Cloud Agents: Autonomes Coding auf virtuellen Maschinen, die sich selbst testen, Demos aufzeichnen und PRs ausliefern
Am 24. Februar 2026 veröffentlichte Cursor das Feature, das KI-Coding vom „Copilot“ zum „Kollegen“ macht: Cloud Agents – vollautonome KI-Coding-Agents, die auf isolierten virtuellen Maschinen laufen, Software bauen, sie selbst testen, Video-Demos ihrer Arbeit aufzeichnen und merge-bereite Pull Requests erstellen können.
Das ist kein Autocomplete. Das ist nicht einmal Pair Programming. Das ist delegiertes Engineering – du beschreibst, was du willst, und eine KI erledigt es auf ihrem eigenen Computer, während du dich um etwas anderes kümmerst.
30 % der gemergten Pull Requests von Cursor selbst werden mittlerweile von diesen Agents erstellt. Diese Zahl sagt alles darüber aus, wohin sich die Softwareentwicklung bewegt.
Was Cloud Agents tatsächlich tun
Das Kernkonzept
Jeder Cloud Agent erhält:
- Seine eigene isolierte VM mit einer vollständigen Entwicklungsumgebung
- Deine Codebasis – er arbeitet sich selbst ein, indem er dein Repo liest
- Eine Aufgabe – beschrieben in natürlicher Sprache
- Autonomie – er arbeitet unabhängig, bis er fertig ist
- Selbsttest – er baut und nutzt die Software, die er erstellt
- Beweise – Videos, Screenshots und Logs, die am PR angehängt sind
Wenn er fertig ist, erhältst du einen merge-bereiten PR mit Artefakten, die beweisen, dass die Änderungen funktionieren. Reviewen, mergen, ausliefern.
Was „Selbsttest“ in der Praxis bedeutet
Dies ist das Detail, das Cloud Agents von allem anderen unterscheidet. Der Agent schreibt nicht nur Code und hofft, dass er funktioniert. Er:
- Startet die Anwendung in seiner VM
- Navigiert durch die UI, wie es ein Benutzer tun würde
- Verifiziert die Änderungen visuell und funktional
- Zeichnet ein Video von sich selbst bei der Nutzung der Software auf
- Erstellt Screenshots von wichtigen Zuständen
- Erfasst Logs für das Debugging
Wenn du den PR prüfst, liest du den Code nicht blind. Du siehst ein Video des Agents, das demonstriert, dass das Feature funktioniert. Das verändert den Review-Workflow grundlegend – du kannst UI-Änderungen in Sekunden validieren, anstatt den Branch auszuchecken und lokal auszuführen.
So nutzt man Cloud Agents
Über Cursor (Desktop/Web)
- Öffne ein beliebiges Projekt in Cursor
- Beschreibe die Aufgabe, die erledigt werden soll
- Wähle „Run as Cloud Agent“
- Der Agent arbeitet sich in deine Codebasis ein, erstellt seine VM und beginnt mit der Arbeit
- Du erhältst Benachrichtigungen über den Fortschritt
- Wenn er fertig ist, prüfe den PR mit den angehängten Artefakten
Über Slack
Hier wird es für Team-Workflows interessant:
- Tagge den Cursor-Agent in einem Slack-Kanal mit einer Aufgabe in natürlicher Sprache
- Der Agent nimmt sie an, erstellt eine Cloud-Session und beginnt mit der Arbeit
- Er antwortet in einem Slack-Thread mit einer Zusammenfassung der erledigten Arbeit
- Der PR ist auf GitHub bereit für das Review
Über GitHub
Trigger Agents direkt aus GitHub-Issues oder Kommentaren. Der Agent liest das Issue, erstellt einen Branch, arbeitet daran und öffnet einen PR – ganz ohne dass jemand eine IDE öffnen muss.
Mobil
Genau wie am Desktop – beschreibe eine Aufgabe, überwache den Fortschritt und prüfe die Artefakte, wenn sie fertig sind.
Praxisbeispiele, die Cursor demonstriert hat
1. Feature-Implementierung mit Tests
Aufgabe: „Füge einen Dark-Mode-Umschalter zur Einstellungsseite hinzu.“
Der Agent:
- Liest die Codebasis, um das Design-System zu verstehen
- Implementiert die Umschalter-Komponente
- Fügt Dark-Mode-CSS-Variablen hinzu
- Schreibt Unit-Tests
- Startet die App, schaltet den Dark Mode ein/aus
- Zeichnet ein Video auf, das den funktionierenden Umschalter zeigt
- Öffnet einen PR mit allen Artefakten
2. Behebung von Sicherheitslücken
Aufgabe: „Reproduziere und behebe die XSS-Schwachstelle im Kommentarbereich.“
Der Agent:
- Liest den Vulnerability-Report
- Reproduziert den Exploit in seiner Sandbox
- Implementiert die Input-Sanitization
- Verifiziert den Fix, indem er den Exploit erneut testet
- Dokumentiert den Fix mit Vorher-Nachher-Screenshots
3. Walkthrough der Dokumentationsseite
Der Agent verbrachte 45 Minuten damit, autonom durch eine Dokumentationsseite zu navigieren, defekte Links zu identifizieren, Formatierungsprobleme zu beheben und veraltete Codebeispiele zu aktualisieren – inklusive einer vollständigen Videoaufzeichnung des Durchgangs.
Die Zahlen: Was bei Cursor passiert
| Metrik | Wert |
|---|---|
| PRs von Cloud Agents | 30 % der gemergten PRs bei Cursor |
| Bewertung | 29,3 Milliarden $ |
| Annualisierter Umsatz | 1 Milliarde $ + (Stand November 2025) |
| Parallele Agents pro Nutzer | 10–20 gleichzeitig |
| Plattformen | Desktop, Web, Mobile, Slack, GitHub |
Alexi Robbins, Co-Head of Engineering für Async Agents bei Cursor:
„Anstatt ein bis drei Dinge gleichzeitig zu tun, die parallel laufen, kann man 10 oder 20 dieser Dinge gleichzeitig laufen lassen.“
Cloud Agents vs. Claude Code vs. GitHub Copilot: Ein ehrlicher Vergleich
Wir haben alle drei intensiv genutzt. Hier ist unsere Einschätzung:
| Fähigkeit | Cursor Cloud Agents | Claude Code + Remote Control | GitHub Copilot |
|---|---|---|---|
| Wo der Code läuft | Cloud VMs | Dein lokaler Rechner | Cloud |
| Parallelität | 10–20 Agents | Eine Session (mehrere via Remote) | Ein Workspace |
| Selbsttest | Ja, mit Videobeweis | Nein (führt Tests aus, aber keine visuelle Prüfung) | Nein |
| PR-Artefakte | Videos, Screenshots, Logs | Diffs und Konversation | Diffs |
| Argumentationstiefe | Gut | Exzellent (Claudes Stärke) | Gut |
| Slack-Integration | Ja | Nein | Eingeschränkt |
| GitHub-Integration | Ja | Über MCP | Nativ |
| Code bleibt lokal | Nein (Cloud VMs) | Ja | Nein |
| Mobiler Zugriff | Ja | Ja (Remote Control) | Nur Web |
Wann man was nutzt
Nutze Cursor Cloud Agents, wenn:
- Du viele unabhängige Aufgaben parallelisieren musst
- Du einen visuellen Beweis willst, dass Änderungen funktionieren (Video-Artefakte)
- Dein Team intensiv in Slack/GitHub arbeitet
- Es für dich okay ist, dass Code in Cloud-VMs ausgeführt wird
Nutze Claude Code, wenn:
- Du tiefe, komplexe logische Schlussfolgerungen über große Codebasen benötigst
- Du möchtest, dass der Code auf deinem lokalen Rechner bleibt (Sicherheit/Compliance)
- Du eine fokussierte Aufgabe bearbeitest, die iterative Rücksprachen erfordert
- Du MCP-Server-Integration mit lokalen Tools benötigst
Nutze beides, wenn:
- Cursor Cloud Agents für volumenstarke, gut definierte Aufgaben (z. B. 10 Bugfixes gleichzeitig)
- Claude Code für das eine komplexe architektonische Refactoring, das sorgfältige Aufmerksamkeit erfordert
Was das für Entwicklungsteams bedeutet
Die Vision der „selbstfahrenden Codebasis“
Die langfristige Vision von Cursor ist explizit: Agents verwalten PR-Merges, Rollouts und das Produktionsmonitoring – das, was sie „selbstfahrende Codebasen“ nennen. Cloud Agents sind der erste echte Schritt in diese Richtung.
Die Produktivitätsrechnung
Wenn ein Entwickler 10–20 parallele Agents steuern kann:
- Multipliziert sich die Feature-Geschwindigkeit um eine Größenordnung
- Wird das Code-Review zum Flaschenhals (weshalb Video-Artefakte so wichtig sind)
- Werden definierte Aufgaben (Bugfixes, Feature-Ergänzungen, Schreiben von Tests) an Agents delegiert
- Bleibt kreative/architektonische Arbeit beim Menschen
Die Qualitätsfrage
30 % der PRs von Cursor stammen von Agents. Das bedeutet, dass Cursor diesen Agents genug vertraut, um ihren Code in ein Produkt zu mergen, das von Millionen genutzt wird. Aber Cursor verfügt auch über starke CI/CD, eine ausgeprägte Code-Review-Kultur und Test-Suiten. Die Agents arbeiten innerhalb von Engineering-Prozessen, nicht um sie herum.
Für Teams ohne starke Review-Praktiken könnten autonome Agents Probleme schneller einführen, als sie sie lösen. Cloud Agents verstärken deine Engineering-Kultur, wie auch immer sie aussehen mag.
Praktische Tipps aus unseren Tests
-
Schreibe klare, spezifische Aufgabenbeschreibungen – „Fixe den Login-Button“ ist zu vage. „Der Login-Button auf
/auth/signinlöst unter Mobile Safari keine Formularvalidierung aus“ ist viel besser. -
Richte zuerst eine gute CI ein – Cloud Agents erstellen PRs, aber deine CI-Pipeline validiert sie. Wenn deine Tests unzuverlässig sind, verschwendest du Zeit mit dem Review von Fehlalarmen.
-
Nutze sie für gut definierte Aufgaben, nicht für explorative Arbeit – „Füge Paginierung zur User-List-API hinzu“ funktioniert hervorragend. „Finde heraus, warum sich die App langsam anfühlt“ eher weniger.
-
Prüfe die Video-Artefakte – Sie existieren aus einem Grund. Ein 30-sekündiges Video-Review erkennt visuelle Regressionen, die ein Code-Review übersehen würde.
-
Starte mit einem Agent – Mache dich mit dem Workflow vertraut, bevor du auf 10 skalierst. Das Reviewen von 10 simultanen PRs erfordert Disziplin.
Die wichtigsten Erkenntnisse
- Cloud Agents laufen auf isolierten VMs – jeder erhält seine eigene vollständige Entwicklungsumgebung.
- Selbsttests mit Videobeweis sind das herausragende Feature – Agents beweisen, dass ihr Code funktioniert.
- 30 % der PRs von Cursor stammen von Agents – das ist keine Theorie mehr.
- 10–20 parallele Agents pro Nutzer – eine massive Steigerung des Durchsatzes.
- Verfügbar über Desktop, Web, Mobile, Slack und GitHub – dort, wo Entwickler bereits arbeiten.
- Die 29,3-Mrd.-$-Bewertung von Cursor spiegelt den Glauben des Marktes an autonomes Coding wider.
- Bestens geeignet für definierte, parallelisierbare Aufgaben – kein Ersatz für menschliches Urteilsvermögen bei der Architektur.
Weiterführende Ressourcen
- Claude Sonnet 4.6: Der vollständige Guide – Die Stärken des Konkurrenzmodells bei tiefem Reasoning.
- Das Agentic Web erklärt: AGENTS.md, MCP vs A2A – Die Protokollschicht, die Multi-Agenten-Workflows ermöglicht.
- Erstellen Sie Ihre Website mit NxCode – Schneller liefern mit KI-gestützter Webentwicklung.

