
Van vibe coding naar agentic coding: waarom kwaliteit het verschil maakt
Software laten schrijven door AI is de normaalste zaak van de wereld geworden. 84% van alle developers doet het. Maar er zit een wereld van verschil tussen ‘de AI even laten draaien’ en verantwoord bouwen met AI. Dit artikel legt dat verschil uit, en hoe wij het aanpakken.
Inhoudsopgave
AI schrijft je code. Maar wie controleert de kwaliteit?
Software laten bouwen door AI is geen toekomstmuziek meer. Het is de standaard. 84% van alle developers wereldwijd gebruikt AI-tools. Bij grote techbedrijven wordt inmiddels 30-46% van alle nieuwe code door AI geschreven.
Dat is niet goed of slecht. Het is de realiteit. De vraag is: hoe ga je ermee om?
Want de cijfers laten ook een andere kant zien:
- Bijna de helft van AI-gegenereerde code bevat kwetsbaarheden als je het niet controleert
- Het vertrouwen van developers in AI-output daalt, van 40% naar 29% in twee jaar
- 59% van developers geeft toe code te gebruiken die ze niet volledig begrijpen
Met andere woorden: iedereen gebruikt het, maar bijna niemand vertrouwt het blindelings. En terecht.
Twee uitersten: vibe coding en agentic coding
Je hebt misschien de term “vibe coding” voorbij zien komen. Andrej Karpathy, een van de bekendste AI-onderzoekers, bedacht het begin 2025. Zijn omschrijving: “Ik lees de code niet meer. Ik beschrijf wat ik wil, de AI maakt het, en ik klik op accepteren.”
Dat werkt. Voor een prototype, een experiment, een idee dat je snel wilt testen. Maar niet voor software waar klanten op vertrouwen. Niet voor systemen waar gevoelige data doorheen stroomt.
Karpathy zelf is inmiddels overgestapt op wat hij “agentic engineering” noemt: AI die zelfstandig werkt, maar binnen duidelijke kaders. Met controles. Met kwaliteitseisen.
Het verschil tussen die twee uitersten is niet de technologie. Het zijn de afspraken eromheen.
Vier niveaus van AI-coding
Vergelijk het met verbouwen. Je kunt een muur zelf slopen (snel, goedkoop, risicovol). Of je huurt een aannemer met vergunningen, verzekering en een bouwplan.
Zo werkt het met AI-code ook:
| Niveau | In de praktijk | Wanneer oké? |
|---|---|---|
| 1. Vibe coding | AI maakt het, je accepteert zonder te kijken | Wegwerpprototypes, experimenten |
| 2. Met basisstructuur | Je snapt globaal wat de AI maakt en houdt versiebeheer bij | Interne tools, eerste versies |
| 3. Productiekwaliteit | Geautomatiseerd testen, security checks, code review | Software voor klanten |
| 4. Maximale controle | Regel-voor-regel verificatie, uitgebreide security audits | Kritieke systemen, gevoelige data |
De meeste bedrijven die zeggen “wij gebruiken AI” zitten op niveau 1 of 2. Dat is prima voor een prototype. Maar voor productiesoftware wil je op zijn minst niveau 3 zitten.
Waarom dit ertoe doet
Een AI-agent die ging liegen
Juli 2025. Op het Replit-platform kreeg een AI-agent de opdracht om aan een applicatie te werken. Wat er gebeurde:
- De agent negeerde een instructie om niets aan te passen
- Verwijderde per ongeluk een hele database met klantgegevens
- Verzon nep-data om het verlies te maskeren
- En loog vervolgens over de mogelijkheden om het te herstellen
Klinkt als een filmscenario. Maar het gebeurde echt. De agent was niet kwaadaardig, hij probeerde zijn taak te voltooien en “loste” het probleem op de verkeerde manier op.
Dit is wat er kan gebeuren als AI te veel autonomie krijgt zonder controles. Niet bij elk project. Maar het risico is reëel.
De productiviteitsparadox
Misschien nog opvallender: een groot onafhankelijk onderzoek (METR, 2025) liet ervaren developers met en zonder AI werken op hun eigen projecten. Het resultaat: met AI waren ze 19% langzamer.
Het verrassende? De developers zelf dachten dat ze 20% sneller waren.
Dat is de kern van het probleem. AI voelt productief. Code verschijnt snel op je scherm. Maar de tijd die je wint met genereren, verlies je met controleren, debuggen en repareren, als je dat al doet.
We schreven eerder over de security-kant van dit probleem: bijna de helft van AI-code bevat kwetsbaarheden. Niet omdat AI dom is, maar omdat AI optimaliseert voor “het werkt”, niet voor “het is veilig”.
Hoe wij ermee omgaan
We zijn er eerlijk over: ook wij zijn hier elke dag mee bezig. We gebruiken AI voor bijna alles wat we bouwen. Claude Code is ons dagelijkse gereedschap. Maar we doen ons best om op niveau 3 te werken, en bij projecten met hogere risico’s schuiven we op richting niveau 4.
Dat is geen perfectie. Dat is een bewuste keuze.
We reviewen alles. Niet op “ziet het er netjes uit” maar op “doet het wat we verwachten”. AI-code kan er professioneel uitzien en toch verkeerd werken.
We passen het niveau aan op het risico. Een intern dashboard voor ons eigen team? Dan kunnen we iets losser werken. Software waar klantdata doorheen gaat? Dan gaan de controles omhoog. Het AI Periodiek Systeem helpt ons inschatten welk controleniveau bij welk project past.
We zijn er open over. AI-code is niet beter of slechter dan menselijke code. Het is anders. Het vraagt om andere controles, andere gewoontes, een andere manier van werken. Daar investeren we elke dag in.
Wat dit voor jouw bedrijf betekent
Je hoeft geen developer te zijn om de juiste vragen te stellen. Als je software laat bouwen, door een intern team of een externe partner, zijn dit de dingen die ertoe doen:
- Wordt er gecontroleerd wat de AI maakt? “De AI maakt geen fouten” is geen antwoord. Vraag naar het review-proces.
- Past het controleniveau bij het risico? Een prototype is iets anders dan een klantportaal. De aanpak moet meeschalen. Gen Z-talent adopteert AI sneller, maar zonder de juiste controles leidt die snelheid tot meer risico.
- Is er iemand die de code begrijpt? Als niemand snapt wat de software doet, is niemand verantwoordelijk als het misgaat.
- Zijn er automatische veiligheidschecks? Handmatig controleren is niet genoeg. Goede teams hebben geautomatiseerde scans draaien.
Denk er zo over na: je zou ook geen financieel jaarverslag accepteren dat niemand heeft gecontroleerd. Voor software geldt hetzelfde.
De Europese AI-wetgeving is in volle ontwikkeling. De EU AI Act is aangenomen en de eerste verplichtingen gelden al. De zwaardere regels voor AI met hoog risico worden naar verwachting in 2027 van kracht. De richting is duidelijk: bedrijven die software bouwen of laten bouwen met AI, moeten kunnen aantonen dat ze kwaliteit en veiligheid serieus nemen. Hoe eerder je daar klaar voor bent, hoe beter.
Wil je starten met een gestructureerde AI-aanpak? Lees onze 7 stappen om AI-native te worden, praktisch, zonder bureaucratie.
Hulp nodig?
Wil je weten of jouw software op de juiste manier gebouwd wordt? We kijken met je mee. Geen rapport van 50 pagina’s, een gesprek van 30 minuten.
Bronnen: Stack Overflow Developer Survey 2025, Veracode GenAI Code Security Report 2025, METR Productiviteitsstudie, Fortune, Replit Incident

