De waarheid over AI-coding agents: lessen uit 6000+ sessies van echte developers
De realiteit van AI-coding agents: Lessen uit 6.000+ echte developer-sessies
AI-coding agents beloven een revolutie in development. Minder code typen. Sneller deployen. Machines doen het saaie werk. Maar meet wie meet: niemand had data over wat developers écht doen met deze tools. Tot nu.
De SWE-chat dataset analyseert meer dan 6.000 echte sessies van developers met AI-agents in productie-omgevingen. De uitkomsten zijn eye-opening, confronterend en gooien veel aannames overboord.
"Vibe coding" boomt – maar security experts waarschuwen
Uit de data blijken drie samenwerkingspatronen:
- Alleen mens (22,7%): AI legt uit, developer schrijft
- Samenwerkend (36,5%): Wisselend finetunen van code
- Vibe coding (40,8%): AI schrijft bijna alles, developer keurt goed
Vibe coding schiet omhoog. In drie maanden tijd verdubbeld, nu het populairste patroon.
Het probleem: vibe-coded commits bevatten 9x meer security kwetsbaarheden dan puur menselijke code.
Handig overboord aan AI gaan betekent niet alleen sneller shippen, maar ook veel meer bugs introduceren. Elke modus voegt meer risico toe dan het oplost. Vibe coding scoort het slechtst.
Ongemakkelijke feiten: De meeste AI-code belandt in de prullenbak
Developers zweren bij AI-agents, maar waarom haalt 55,7% van de gegenereerde code nooit productie?
44% van interacties eindigt in onderbreking of afwijzing door de developer. Agents stellen zelden doorvragen – dat gebeurt maar in 1,4% van de turns.
Het lijkt op een monoloog. Developers gebruiken AI om ideeën te verkennen en snel te itereren, niet om blind te kopiëren. Meer een slimme denkbuddy dan een code-machine.
Waar developers écht op wachten van AI
Verassing: het toppunt voor AI-prompts is niet code schrijven, maar code begrijpen.
19% van de prompts vraagt om uitleg van bestaande code – meer dan generatieverzoeken. AI fungeert als reverse-engineer, doc-generator en onboarding-hulp voor vreemde codebases.
Marketing pusht "minder schrijven", maar developers willen vooral "beter snappen".
Het nitpicker-dilemma van experts
47% van vibe-coders zijn "expert nitpickers": developers die alles blijven controleren en finetunen.
Dat werkt contraproductief. Als je toch elke regel checkt, waarom dan vibe coding? Data wijst op collaborative mode: efficiënter, veiliger.
Deze nitpickers verspillen energie aan AI-code die ze zelf sneller hadden geschreven.
Echte flop-sessies uit de data
De dataset toont mislukte voorbeelden. Een developer wil trage iOS-animaties fixen. AI rommelt met verkeerde parameters – card-stagger in plaats van container-animatie.
Meerdere fixes later: geen oplossing. Geen commit. AI miste context en prioriteiten.
Een ander geval: nitpicker micromanaget – "geen aparte functie", "UUID inline", "const hernoemen". De developer is reviewer, geen maker.
Tips voor jouw team
Wil je AI-agents inzetten? Dit zegt de data:
Focus op begrip, niet op genereren: AI blinkt uit in uitleg en docs, niet in puur schrijven.
Kies collaborative mode: 36,5% back-and-forth sessies balanceren security, snelheid en plezier. Vibe coding is te riskant.
Reken met review-tijd: Scan AI-code met Semgrep of Snyk. Die 9x kwetsbaarheden zijn realiteit.
Meet wat landt: Verwacht 55% weggooi. Dat is succes, geen falen. Kijk naar hit rate, niet volume.
De les erachter
SWE-chat schittert door zijn echtheid: echte developers, echte flows, echte keuzes.
Het ontmaskert overdreven hype. Geen unsupervised code-machines. Wel slimme denktools, waar developers selectief pikken en sturen.
Agents zijn krachtig, maar geen toverstaf. Wie wint? Diegene die AI als partner ziet, kritisch blijft en betrokken.
Data liegt niet.
Dieper graven? De volledige SWE-chat dataset is openbaar. Bouw je AI-tools? Gebruik deze patronen voor je roadmap. Begrijpen hoe developers werken, slaat gokken over.