Cursor Cloud Agents: Autonoom programmeren op virtuele machines die zichzelf testen, demo's opnemen en PR's verzenden
Op 24 februari 2026 lanceerde Cursor de functie die AI-programmeren verplaatst van "copilot" naar "collega": Cloud Agents — volledig autonome AI-programmeurs die draaien op geïsoleerde virtuele machines die software kunnen bouwen, het zelf kunnen testen, videodemo's van hun werk kunnen opnemen en pull requests kunnen produceren die klaar zijn om te worden samengevoegd.
Dit is geen automatische aanvulling. Dit is zelfs geen pair programming. Dit is gedelegeerde engineering — jij beschrijft wat je wilt, en een AI gaat aan de slag op zijn eigen computer terwijl jij iets anders doet.
30% van Cursors eigen gemergeerde pull requests wordt nu door deze agents gemaakt. Dat getal zegt alles over waar softwareontwikkeling naartoe gaat.
Wat Cloud Agents daadwerkelijk doen
Het kernconcept
Elke Cloud Agent krijgt:
- Zijn eigen geïsoleerde VM met een volledige ontwikkelomgeving
- Jouw codebase — hij onboardt zichzelf door je repo te lezen
- Een taak — beschreven in natuurlijke taal
- Autonomie — hij werkt onafhankelijk tot het klaar is
- Zelftesten — hij bouwt en gebruikt de software die hij creëert
- Bewijsmateriaal — video's, screenshots en logs bijgevoegd bij de PR
Wanneer de agent klaar is, ontvang je een PR die klaar is om te mergen, inclusief artefacten die bewijzen dat de wijzigingen werken. Beoordelen, mergen, releasen.
Wat "Zelftesten" in de praktijk betekent
Dit is het detail dat Cloud Agents onderscheidt van al het andere. De agent schrijft niet alleen code in de hoop dat het werkt. De agent:
- Start de applicatie op in zijn VM
- Navigeert door de UI zoals een gebruiker dat zou doen
- Verifieert de wijzigingen visueel en functioneel
- Neemt een video op van zichzelf terwijl hij de software gebruikt
- Maakt screenshots van belangrijke statussen
- Legt logs vast voor debugging
Wanneer je de PR beoordeelt, lees je de code niet blindelings. Je bekijkt een video waarin de agent demonstreert dat de functie werkt. Dat verandert de workflow voor reviews fundamenteel — je kunt UI-wijzigingen in seconden valideren in plaats van de branch binnen te halen en lokaal uit te voeren.
Hoe Cloud Agents te gebruiken
Vanuit Cursor (Desktop/Web)
- Open een project in Cursor
- Beschrijf de taak die je gedaan wilt hebben
- Selecteer "Run as Cloud Agent"
- De agent onboardt op je codebase, maakt zijn VM aan en begint te werken
- Je ontvangt meldingen over de voortgang
- Beoordeel na afloop de PR met de bijgevoegde artefacten
Vanuit Slack
Dit is waar het interessant wordt voor teamworkflows:
- Tag de Cursor-agent in een Slack-kanaal met een taak in natuurlijke taal
- De agent pakt het op, maakt een cloudsessie aan en begint te werken
- Hij reageert in een Slack-thread met een samenvatting van het voltooide werk
- De PR staat klaar voor beoordeling op GitHub
Vanuit GitHub
Activeer agents rechtstreeks vanuit GitHub issues of comments. De agent leest het issue, maakt een branch aan, werkt eraan en opent een PR — allemaal zonder dat iemand een IDE hoeft te openen.
Vanuit Mobiel
Hetzelfde als op de desktop — beschrijf een taak, monitor de voortgang en beoordeel de artefacten wanneer ze klaar zijn.
Praktijkvoorbeelden gedemonstreerd door Cursor
1. Functie-implementatie met testen
Taak: "Voeg een dark mode toggle toe aan de instellingenpagina."
De agent:
- Leest de codebase om het design system te begrijpen
- Implementeert het toggle-component
- Voegt dark mode CSS-variabelen toe
- Schrijft unit tests
- Start de app op, schakelt dark mode aan/uit
- Neemt een video op waarin de toggle werkend te zien is
- Opent een PR met alle artefacten
2. Beveiligingslek repareren
Taak: "Reproduceer en repareer de XSS-kwetsbaarheid in de sectie met opmerkingen."
De agent:
- Leest het kwetsbaarheidsrapport
- Reproduceert de exploit in zijn sandbox
- Implementeert input-sanitizing
- Verifieert de fix door de exploit opnieuw te testen
- Documenteert de fix met voor-en-na-screenshots
3. Walkthrough van documentatiewebsite
De agent besteedde 45 minuten aan het autonoom navigeren door een documentatiesite, het identificeren van gebroken links, het herstellen van opmaakfouten en het bijwerken van verouderde codevoorbeelden — met een volledige video-opname van de walkthrough.
De cijfers: Wat er gebeurt bij Cursor
| Metriek | Waarde |
|---|---|
| PR's van Cloud Agents | 30% van de gemergeerde PR's bij Cursor |
| Waardering | $29,3 miljard |
| Jaaromzet (geannualiseerd) | $1 miljard+ (per november 2025) |
| Parallelle agents per gebruiker | 10–20 tegelijkertijd |
| Platformen | Desktop, Web, Mobiel, Slack, GitHub |
Alexi Robbins, co-hoofd engineering voor asynchrone agents bij Cursor:
"In plaats van één tot drie dingen die je tegelijkertijd doet, kun je 10 of 20 van deze dingen tegelijkertijd laten draaien."
Cloud Agents vs. Claude Code vs. GitHub Copilot: Een eerlijke vergelijking
We hebben alle drie uitgebreid gebruikt. Hier is onze eerlijke beoordeling:
| Capaciteit | Cursor Cloud Agents | Claude Code + Remote Control | GitHub Copilot |
|---|---|---|---|
| Waar code draait | Cloud VM's | Je lokale machine | Cloud |
| Parallellisme | 10–20 agents | Eén sessie (meerdere via Remote Control) | Eén workspace |
| Zelftesten | Ja, met videobewijs | Nee (draait tests maar geen visuele verificatie) | Nee |
| PR-artefacten | Video's, screenshots, logs | Diffs en conversatie | Diffs |
| Redeneerdiepte | Goed | Uitstekend (de kracht van Claude) | Goed |
| Slack-integratie | Ja | Nee | Beperkt |
| GitHub-integratie | Ja | Via MCP | Native |
| Code blijft lokaal | Nee (cloud VM's) | Ja | Nee |
| Mobiele toegang | Ja | Ja (Remote Control) | Alleen web |
Wanneer wat te gebruiken
Gebruik Cursor Cloud Agents wanneer:
- Je veel onafhankelijke taken hebt om te paralleliseren
- Je visueel bewijs wilt dat wijzigingen werken (video-artefacten)
- Je team intensief werkt in Slack/GitHub
- Je er geen probleem mee hebt dat code op cloud-VM's draait
Gebruik Claude Code wanneer:
- Je diepgaande, complexe redeneringen nodig hebt over grote codebases
- Je wilt dat de code op je lokale machine blijft (beveiliging/compliance)
- Je werkt aan één gefocuste taak die veel interactie vereist
- Je MCP-serverintegratie met lokale tools nodig hebt
Gebruik beide wanneer:
- Cursor Cloud Agents voor een groot volume aan goed gedefinieerde taken (10 bugfixes tegelijk)
- Claude Code voor die ene complexe architecturale refactor die zorgvuldige aandacht nodig heeft
Wat dit betekent voor ontwikkelingsteams
De visie van de "Zelfrijdende Codebase"
De langetermijnvisie van Cursor is expliciet: agents die PR-merges, rollouts en productie-monitoring beheren — wat zij "zelfrijdende codebases" noemen. Cloud Agents zijn de eerste echte stap naar die visie.
De productiviteitsberekening
Als één ontwikkelaar 10-20 parallelle agents kan aansturen:
- Vermenigvuldigt de feature-snelheid met een factor tien
- Wordt de code review de bottleneck (daarom zijn video-artefacten zo belangrijk)
- Worden gedefinieerde taken (bugfixes, toevoegen van features, schrijven van tests) gedelegeerd aan agents
- Blijft creatief/architecturaal werk bij mensen
De kwaliteitsvraag
30% van de eigen PR's van Cursor is afkomstig van agents. Dat betekent dat Cursor deze agents voldoende vertrouwt om hun code te mergen in een product dat door miljoenen wordt gebruikt. Maar Cursor heeft ook sterke CI/CD, een goede code review-cultuur en uitgebreide testsuites. De agents werken binnen de engineeringprocessen, niet eromheen.
Voor teams zonder sterke review-praktijken zouden autonome agents problemen sneller kunnen introduceren dan ze oplossen. Cloud Agents versterken je engineering-cultuur, wat die ook is.
Praktische tips uit onze tests
-
Schrijf duidelijke, specifieke taakomschrijvingen — "Fix de login-knop" is te vaag. "De login-knop op /auth/signin activeert de formuliervalidatie niet op mobiele Safari" is veel beter.
-
Zet eerst goede CI op — Cloud Agents produceren PR's, maar je CI-pijplijn valideert ze. Als je tests onbetrouwbaar (flaky) zijn, verspil je tijd aan het beoordelen van foutieve meldingen.
-
Gebruik voor goed gedefinieerde taken, niet voor verkennend werk — "Voeg paginering toe aan de API voor de gebruikerslijst" werkt geweldig. "Zoek uit waarom de app traag aanvoelt" werkt niet.
-
Bekijk de video-artefacten — Ze zijn er met een reden. Een videobeoordeling van 30 seconden spoort visuele regressies op die bij een code review over het hoofd worden gezien.
-
Begin met één agent — Raak vertrouwd met de workflow voordat je opschaalt naar 10. Het beoordelen van 10 gelijktijdige PR's vereist discipline.
Belangrijkste leerpunten
- Cloud Agents draaien op geïsoleerde VM's — elk krijgt zijn eigen volledige dev-omgeving
- Zelftesten met videobewijs is de opvallende functie — agents bewijzen dat hun code werkt
- 30% van de PR's van Cursor komt van agents — dit is niet theoretisch
- 10–20 parallelle agents per gebruiker — een enorme toename in doorvoer
- Beschikbaar via Desktop, Web, Mobiel, Slack en GitHub — ontmoet ontwikkelaars waar ze zijn
- De waardering van Cursor van $29,3 miljard weerspiegelt het geloof van de markt in autonoom programmeren
- Best voor gedefinieerde, paralleliseerbare taken — geen vervanging voor menselijk oordeel over architectuur
Gerelateerde bronnen
- Claude Sonnet 4.6: Volledige gids — De sterke punten van het concurrerende model in diepgaand redeneren
- Het Agentic Web uitgelegd: AGENTS.md, MCP vs A2A — De protocollaag die workflows met meerdere agents mogelijk maakt
- Bouw je website met NxCode — Lever sneller op met AI-gestuurde webontwikkeling

