Mehr als Code per KI: Die versteckten Kosten von Agenten-gestützter Entwicklung
Jenseits der KI-Code-Generierung: Die versteckten Fallen beim Agenten-gestützten Programmieren
KI-Tools boosten die Entwicklung enorm. Code entsteht schneller als je zuvor. Doch Tempo und Qualität passen selten zusammen. Agentenbasierte Systeme enthüllen ein Problem: Wir lösen nicht das Richtige.
Zahlen täuschen
Letzten Monat prahlten Branchenriesen mit Rekorden. Manche Entwickler schwören, dass 100 Prozent ihres frischen Codes von KI-Agenten stammen – mit kaum menschlichem Eingriff. Umfragen zeigen: Fast 70 Prozent tippen selbst weniger als die Hälfte. Früher half KI bei den letzten Feinheiten. Heute poliert der Mensch nur noch nach.
Das klingt revolutionär. Deployments rasen voran. Nebenprojekte, die Wochen fraßen, sind in Tagen erledigt.
Doch die Zahlen verdecken den Wandel der Probleme.
Neue Bug-Arten tauchen auf
Frühe KI-Assistenten stolperten über Basics. Fehlende Semikolons. Falsche Funktionsnamen. Schleifenfehler. Linter spürten das sofort.
Heutige Fehler schleichen sich ein.
Fehlende Grundannahmen: Der Agent versteht eine vage Anforderung falsch und baut drumherum ein ganzes Modul. Drei Pull Requests später bricht alles zusammen. Die Basis war Sand. Die KI hat logisch geraten – und nie nachgefragt. Das Design sitzt nun überall fest.
Übertriebene Aufwand: Lass den Agenten machen, und er webt Komplexität statt Klarheit. 1.000 Zeilen statt 100. Basisklassen, wo Funktionen reichen. Extra-Gerüste ohne Sinn. Die KI ist gründlich – zu gründlich.
Versteckte Unordnung: Agenten räumen nicht auf. Sie verändern Nachbarcode blind. Kommentare verschwinden. Tote Funktionen bleiben. Im PR wirkt es harmlos. Monate später jagst du Geister aus einem alten Refactor.
Bravheit statt Kritik: Agenten widersprechen nie. Keine Nachfragen. Keine Widersprüche aufzeigen. Kein „Sicher, dass das Sinn macht?“ Sie folgen blind. Compliance statt Denken.
Das sind keine Ausnahmen. Musterfehler, die Prompts, READMEs oder Pläne nicht stoppen.
Der Review-Albtraum
Alarmlage: Nur 48 Prozent prüfen KI-Code gründlich vor dem Commit. Und 38 Prozent der Reviewer? Die brauchen mehr Zeit als bei menschlichem Code.
Wir spucken plausible Zeilen aus – prüfen sie aber lax. Der Engpass liegt nun beim Validieren. Und wir hinken hinterher.
Verständnis-Schulden: Der unsichtbare Bug
Code schreiben ist leichter als ihn zu kapieren. Manches versteht man, ohne es nachbauen zu können. Aber irgendwann wird’s Gummistempel.
KI-Code läuft, Tests grün, Deadline drückt. Warum 30 Minuten investieren, wenn’s plausibel wirkt? Der Agent jagt schon zum Nächsten.
Das sind Verständnis-Schulden. Kein Dashboard trackt sie.
Monate später: Du kennst deinen Code nur vage. Es läuft – gerade so. Bei Pannen wird Debuggen zur Schatzsuche. Bei Änderungen wird’s riskant, weil Abhängigkeiten im Dunkeln lauern.
Der Zeitfaktor
Die Schulden explodieren verzögert. Kein Sprint zeigt’s. Es kracht bei Mods, wenn Fragilität auffliegt. Oder Performance sackt ein. Oder ein Feature wird zur Architekturkrise.
In Teams schlimmer: Agent A baut, B ändert, C erweitert. Annahmen stapeln sich wie Murmeltiere-Telefon. Maschinen fragen nie nach.
Wie geht’s weiter?
KI-Agenten sind kein Fluch. Gains sind echt, vor allem bei Neustarts oder klaren Tasks. Aber die Einstellung zählt.
Sieh KI-Code als Entwurf. Behandle ihn wie Junior-Arbeit. Frag nach. Fordere Begründung für Komplexität. Kritisier Annahmen.
Baue Verständnis auf. Versteh Architektur, nicht nur Syntax. Kannst du’s nicht erklären? Schulden wachsen.
Mach Reviews Pflicht. 48 Prozent reicht nicht. „Läuft“ ist kein „gut“.
Setz Agenten gezielt ein. Perfekt für Definites. Mensch bleibt bei Design, Patterns und Systemübergreifen.
Es geht nicht um Prozente. Sondern um Prozesse, wo Menschen wach bleiben. Tempo zählt nur, wenn’s haltbar ist.