La verità sugli agenti AI per il codice: cosa rivelano oltre 6.000 sessioni reali di developer

La verità sugli agenti AI per il codice: cosa rivelano oltre 6.000 sessioni reali di developer

Apr 29, 2026 ai-coding developer-tools software-security machine-learning code-generation vibe-coding semgrep vulnerability-analysis

La Realtà degli Agenti AI per il Codice: Lezioni da Oltre 6.000 Sessioni Reali di Sviluppatori

Tutti parlano di agenti AI che rivoluzionano lo sviluppo. Meno codice da scrivere. Lancio più rapido. Lascia che le macchine si occupino delle parti noiose.

Ma nessuno aveva mai analizzato sul serio cosa fanno gli sviluppatori con questi tool. Fino a oggi.

Il dataset SWE-chat ha registrato più di 6.000 sessioni vere, con developer al lavoro su progetti live. I risultati? Sorprendenti, scomodi, e pronti a ribaltare le certezze sulla collaborazione uomo-AI.

L'Emergere del "Vibe Coding" e i Timori per la Sicurezza

Dai dati emergono tre modi principali di lavorare con l'AI:

  • Modalità solo umana (22,7%): L'AI spiega, ma il codice lo scrive lo sviluppatore
  • Modalità collaborativa (36,5%): Si alternano suggerimenti e ritocchi
  • Vibe coding (40,8%): L'AI genera quasi tutto, l'umano approva e basta

Quest'ultima sta esplodendo. In soli tre mesi è raddoppiata, diventando il pattern dominante.

Il problema? I commit in vibe coding portano 9 volte più vulnerabilità di sicurezza rispetto al codice scritto solo da umani.

Pensateci. Delegare tutto all'AI accelera il rilascio, ma infila bug critici a non finire. Ogni modalità aggiunge più rischi di quanti ne risolva, ma il vibe coding è il peggiore.

La Verità Scomoda: La Maggior Parte del Codice AI Finisce nel Cestino

Se gli sviluppatori adorano questi agenti, perché il 55,7% del loro codice non arriva mai in produzione?

Perché intervengono sempre. Nel 44% dei casi, lo sviluppatore ferma o rifiuta l'AI. Gli agenti, invece, chiedono chiarimenti solo nello 1,4% delle interazioni.

È come un dialogo a senso unico.

In pratica, usano l'AI per esplorare idee veloci e testare opzioni, non per generare codice pronto all'uso. È un rubber duck potenziato: buttano via la maggior parte, tengono il meglio.

Cosa Cercano Davvero gli Sviluppatori dall'AI

Scoperta chiave: il motivo top per usare l'AI non è generare codice, ma capirlo.

Il 19% delle richieste chiede spiegazioni su codice esistente, superando di gran lunga le generazioni. L'AI diventa tool di reverse engineering, generatore di doc, acceleratore per entrare in codebase sconosciute.

E noi li vendiamo come "scrivi meno", mentre loro vogliono "capisci di più".

Il Drama degli "Expert Nitpickers"

Il 47% di chi fa vibe coding sono "expert nitpickers": sviluppatori che controllano tutto, correggono ogni dettaglio minuscolo.

È controproducente. Se rivedi riga per riga, perché non passare alla modalità collaborativa? Costa meno, è più sicura, efficiente.

Questi nitpickers perdono tempo su codice che saprebbero fare da soli, solo più piano.

Esempi Concreti di Fallimenti

Il dataset mostra sessioni fallite vere. Un developer chiede di fixare animazioni lente su iOS. L'AI sbaglia sempre: tocca lo stagger delle card invece dell'animazione del container.

Dopo vari tentativi, zero commit. L'AI non capisce il contesto spaziale né le priorità.

Un altro caso: un nitpicker ossessionato da micro-cambi. "Non creare funzioni extra", "inlinea l'UUID", "rinomina la costante". Sembra un code reviewer, non uno sviluppatore.

Implicazioni per il Tuo Team

Valuti agenti AI? Ecco i dati:

Punta sulla comprensione, non sulla generazione: Spiegano meglio di quanto creino. Doc > codice nuovo.

Scegli la collaborativa: Quel 36,5% bilancia sicurezza, velocità e soddisfazione. Vibe coding tenta, ma rischia troppo.

Prevedi revisioni extra: Per il codice AI, dedica tempo a scan di sicurezza. Usa Semgrep, Snyk. Quel 9x di vulnerabilità è reale, in produzione ora.

Valuta i successi, non il volume: Butterai via il 55% dei suggerimenti. Normale, è il tool che funziona.

Il Quadro Generale

SWE-chat convince non solo per i numeri, ma per l'autenticità. Sessioni reali, decisioni vere su AI nel flusso quotidiano.

Dimostra che l'hype sugli agenti è esagerato. Non sono macchine autonome. Sono strumenti di pensiero interattivi: developer scartano tanto, restano padroni.

Potenti, sì. Magici, no. Vince chi collabora con scetticismo attivo, non chi si arrende al vibe coding.

I dati lo confermano.


Curioso di approfondire? Il dataset SWE-chat è pubblico. Se sviluppi tool su AI, usa questi pattern per la tua roadmap. Capire l'uso reale batte le ipotesi.

Read in other languages:

RU BG EL CS UZ TR SV FI RO PT PL NB NL HU FR ES DE DA ZH-HANS EN