Cursor Cloud Agents: Autonoom programmeren op virtuele machines die zichzelf testen, demo's opnemen en PR's verzenden
← Back to news

Cursor Cloud Agents: Autonoom programmeren op virtuele machines die zichzelf testen, demo's opnemen en PR's verzenden

N

NxCode Team

7 min read

Cursor Cloud Agents: Autonoom programmeren op virtuele machines die zichzelf testen, demo's opnemen en PR's verzenden

Op 24 februari 2026 lanceerde Cursor de functie die AI-programmeren verplaatst van "copilot" naar "collega": Cloud Agents — volledig autonome AI-programmeurs die draaien op geïsoleerde virtuele machines die software kunnen bouwen, het zelf kunnen testen, videodemo's van hun werk kunnen opnemen en pull requests kunnen produceren die klaar zijn om te worden samengevoegd.

Dit is geen automatische aanvulling. Dit is zelfs geen pair programming. Dit is gedelegeerde engineering — jij beschrijft wat je wilt, en een AI gaat aan de slag op zijn eigen computer terwijl jij iets anders doet.

30% van Cursors eigen gemergeerde pull requests wordt nu door deze agents gemaakt. Dat getal zegt alles over waar softwareontwikkeling naartoe gaat.


Wat Cloud Agents daadwerkelijk doen

Het kernconcept

Elke Cloud Agent krijgt:

  1. Zijn eigen geïsoleerde VM met een volledige ontwikkelomgeving
  2. Jouw codebase — hij onboardt zichzelf door je repo te lezen
  3. Een taak — beschreven in natuurlijke taal
  4. Autonomie — hij werkt onafhankelijk tot het klaar is
  5. Zelftesten — hij bouwt en gebruikt de software die hij creëert
  6. Bewijsmateriaal — video's, screenshots en logs bijgevoegd bij de PR

Wanneer de agent klaar is, ontvang je een PR die klaar is om te mergen, inclusief artefacten die bewijzen dat de wijzigingen werken. Beoordelen, mergen, releasen.

Wat "Zelftesten" in de praktijk betekent

Dit is het detail dat Cloud Agents onderscheidt van al het andere. De agent schrijft niet alleen code in de hoop dat het werkt. De agent:

  • Start de applicatie op in zijn VM
  • Navigeert door de UI zoals een gebruiker dat zou doen
  • Verifieert de wijzigingen visueel en functioneel
  • Neemt een video op van zichzelf terwijl hij de software gebruikt
  • Maakt screenshots van belangrijke statussen
  • Legt logs vast voor debugging

Wanneer je de PR beoordeelt, lees je de code niet blindelings. Je bekijkt een video waarin de agent demonstreert dat de functie werkt. Dat verandert de workflow voor reviews fundamenteel — je kunt UI-wijzigingen in seconden valideren in plaats van de branch binnen te halen en lokaal uit te voeren.


Hoe Cloud Agents te gebruiken

Vanuit Cursor (Desktop/Web)

  1. Open een project in Cursor
  2. Beschrijf de taak die je gedaan wilt hebben
  3. Selecteer "Run as Cloud Agent"
  4. De agent onboardt op je codebase, maakt zijn VM aan en begint te werken
  5. Je ontvangt meldingen over de voortgang
  6. Beoordeel na afloop de PR met de bijgevoegde artefacten

Vanuit Slack

Dit is waar het interessant wordt voor teamworkflows:

  1. Tag de Cursor-agent in een Slack-kanaal met een taak in natuurlijke taal
  2. De agent pakt het op, maakt een cloudsessie aan en begint te werken
  3. Hij reageert in een Slack-thread met een samenvatting van het voltooide werk
  4. De PR staat klaar voor beoordeling op GitHub

Vanuit GitHub

Activeer agents rechtstreeks vanuit GitHub issues of comments. De agent leest het issue, maakt een branch aan, werkt eraan en opent een PR — allemaal zonder dat iemand een IDE hoeft te openen.

Vanuit Mobiel

Hetzelfde als op de desktop — beschrijf een taak, monitor de voortgang en beoordeel de artefacten wanneer ze klaar zijn.


Praktijkvoorbeelden gedemonstreerd door Cursor

1. Functie-implementatie met testen

Taak: "Voeg een dark mode toggle toe aan de instellingenpagina."

De agent:

  • Leest de codebase om het design system te begrijpen
  • Implementeert het toggle-component
  • Voegt dark mode CSS-variabelen toe
  • Schrijft unit tests
  • Start de app op, schakelt dark mode aan/uit
  • Neemt een video op waarin de toggle werkend te zien is
  • Opent een PR met alle artefacten

2. Beveiligingslek repareren

Taak: "Reproduceer en repareer de XSS-kwetsbaarheid in de sectie met opmerkingen."

De agent:

  • Leest het kwetsbaarheidsrapport
  • Reproduceert de exploit in zijn sandbox
  • Implementeert input-sanitizing
  • Verifieert de fix door de exploit opnieuw te testen
  • Documenteert de fix met voor-en-na-screenshots

3. Walkthrough van documentatiewebsite

De agent besteedde 45 minuten aan het autonoom navigeren door een documentatiesite, het identificeren van gebroken links, het herstellen van opmaakfouten en het bijwerken van verouderde codevoorbeelden — met een volledige video-opname van de walkthrough.


De cijfers: Wat er gebeurt bij Cursor

MetriekWaarde
PR's van Cloud Agents30% van de gemergeerde PR's bij Cursor
Waardering$29,3 miljard
Jaaromzet (geannualiseerd)$1 miljard+ (per november 2025)
Parallelle agents per gebruiker10–20 tegelijkertijd
PlatformenDesktop, Web, Mobiel, Slack, GitHub

Alexi Robbins, co-hoofd engineering voor asynchrone agents bij Cursor:

"In plaats van één tot drie dingen die je tegelijkertijd doet, kun je 10 of 20 van deze dingen tegelijkertijd laten draaien."


Cloud Agents vs. Claude Code vs. GitHub Copilot: Een eerlijke vergelijking

We hebben alle drie uitgebreid gebruikt. Hier is onze eerlijke beoordeling:

CapaciteitCursor Cloud AgentsClaude Code + Remote ControlGitHub Copilot
Waar code draaitCloud VM'sJe lokale machineCloud
Parallellisme10–20 agentsEén sessie (meerdere via Remote Control)Eén workspace
ZelftestenJa, met videobewijsNee (draait tests maar geen visuele verificatie)Nee
PR-artefactenVideo's, screenshots, logsDiffs en conversatieDiffs
RedeneerdiepteGoedUitstekend (de kracht van Claude)Goed
Slack-integratieJaNeeBeperkt
GitHub-integratieJaVia MCPNative
Code blijft lokaalNee (cloud VM's)JaNee
Mobiele toegangJaJa (Remote Control)Alleen web

Wanneer wat te gebruiken

Gebruik Cursor Cloud Agents wanneer:

  • Je veel onafhankelijke taken hebt om te paralleliseren
  • Je visueel bewijs wilt dat wijzigingen werken (video-artefacten)
  • Je team intensief werkt in Slack/GitHub
  • Je er geen probleem mee hebt dat code op cloud-VM's draait

Gebruik Claude Code wanneer:

  • Je diepgaande, complexe redeneringen nodig hebt over grote codebases
  • Je wilt dat de code op je lokale machine blijft (beveiliging/compliance)
  • Je werkt aan één gefocuste taak die veel interactie vereist
  • Je MCP-serverintegratie met lokale tools nodig hebt

Gebruik beide wanneer:

  • Cursor Cloud Agents voor een groot volume aan goed gedefinieerde taken (10 bugfixes tegelijk)
  • Claude Code voor die ene complexe architecturale refactor die zorgvuldige aandacht nodig heeft

Wat dit betekent voor ontwikkelingsteams

De visie van de "Zelfrijdende Codebase"

De langetermijnvisie van Cursor is expliciet: agents die PR-merges, rollouts en productie-monitoring beheren — wat zij "zelfrijdende codebases" noemen. Cloud Agents zijn de eerste echte stap naar die visie.

De productiviteitsberekening

Als één ontwikkelaar 10-20 parallelle agents kan aansturen:

  • Vermenigvuldigt de feature-snelheid met een factor tien
  • Wordt de code review de bottleneck (daarom zijn video-artefacten zo belangrijk)
  • Worden gedefinieerde taken (bugfixes, toevoegen van features, schrijven van tests) gedelegeerd aan agents
  • Blijft creatief/architecturaal werk bij mensen

De kwaliteitsvraag

30% van de eigen PR's van Cursor is afkomstig van agents. Dat betekent dat Cursor deze agents voldoende vertrouwt om hun code te mergen in een product dat door miljoenen wordt gebruikt. Maar Cursor heeft ook sterke CI/CD, een goede code review-cultuur en uitgebreide testsuites. De agents werken binnen de engineeringprocessen, niet eromheen.

Voor teams zonder sterke review-praktijken zouden autonome agents problemen sneller kunnen introduceren dan ze oplossen. Cloud Agents versterken je engineering-cultuur, wat die ook is.


Praktische tips uit onze tests

  1. Schrijf duidelijke, specifieke taakomschrijvingen — "Fix de login-knop" is te vaag. "De login-knop op /auth/signin activeert de formuliervalidatie niet op mobiele Safari" is veel beter.

  2. Zet eerst goede CI op — Cloud Agents produceren PR's, maar je CI-pijplijn valideert ze. Als je tests onbetrouwbaar (flaky) zijn, verspil je tijd aan het beoordelen van foutieve meldingen.

  3. Gebruik voor goed gedefinieerde taken, niet voor verkennend werk — "Voeg paginering toe aan de API voor de gebruikerslijst" werkt geweldig. "Zoek uit waarom de app traag aanvoelt" werkt niet.

  4. Bekijk de video-artefacten — Ze zijn er met een reden. Een videobeoordeling van 30 seconden spoort visuele regressies op die bij een code review over het hoofd worden gezien.

  5. Begin met één agent — Raak vertrouwd met de workflow voordat je opschaalt naar 10. Het beoordelen van 10 gelijktijdige PR's vereist discipline.


Belangrijkste leerpunten

  1. Cloud Agents draaien op geïsoleerde VM's — elk krijgt zijn eigen volledige dev-omgeving
  2. Zelftesten met videobewijs is de opvallende functie — agents bewijzen dat hun code werkt
  3. 30% van de PR's van Cursor komt van agents — dit is niet theoretisch
  4. 10–20 parallelle agents per gebruiker — een enorme toename in doorvoer
  5. Beschikbaar via Desktop, Web, Mobiel, Slack en GitHub — ontmoet ontwikkelaars waar ze zijn
  6. De waardering van Cursor van $29,3 miljard weerspiegelt het geloof van de markt in autonoom programmeren
  7. Best voor gedefinieerde, paralleliseerbare taken — geen vervanging voor menselijk oordeel over architectuur

Gerelateerde bronnen

Back to all news
Enjoyed this article?

Bouw met NxCode

Verander je idee in een werkende app — geen coderen nodig.

46.000+ ontwikkelaars bouwden deze maand met NxCode

Probeer het zelf

Beschrijf wat je wilt — NxCode bouwt het voor je.

46.000+ ontwikkelaars bouwden deze maand met NxCode