Prawda o agentach AI do kodowania: co mówią tysiące sesji z deweloperami
Prawda o agentach AI do kodowania: Co mówią tysiące sesji programistów
Słyszymy wszędzie: agenci AI zrewolucjonizują programowanie. Mniej pisania kodu. Szybsze wypuszczanie. Maszyny ogarną rutynę.
Tylko nikt nie sprawdzał, co deweloperzy naprawdę z nimi robią. Aż do teraz.
Nowy zbiór danych SWE-chat przeanalizował ponad 6 tysięcy真实nych sesji kodowania z AI w realnych projektach. Wyniki szokują, burzą mity i pokazują, jak wygląda współpraca człowieka z maszyną.
Boom "kodowania na czuja" – koszmar dla bezpieczeństwa
Dane wskazują na trzy sposoby pracy z AI:
- Tylko człowiek (22,7%): AI wyjaśnia, ale kod pisze programista
- Współpraca (36,5%): Oboje tworzą – poprawki w obie strony
- Kodowanie na czuja (40,8%): AI robi prawie wszystko, człowiek tylko klepie "OK"
Ten ostatni rośnie jak szalony. W trzy miesiące podwoił się i jest już najpopularniejszy.
Problem? Komity z "kodowania na czuja" mają 9 razy więcej dziur bezpieczeństwa niż te pisane ręcznie.
Wyobraź sobie: dajesz klawiaturę AI i dostajesz kod nie tylko szybciej, ale i o wiele bardziej ryzykowny. Każdy tryb dodaje więcej błędów, niż naprawia. Ale ten na czuja bije rekordy.
Gorzka prawda: większość kodu AI ląduje w koszu
Skoro programiści tak lubią AI, to czemu 55,7% kodu z agentów nigdy nie trafia do produkcji?
Bo ciągle go odrzucają. W 44% interakcji deweloper przerywa lub kasuje sugestię. AI rzadko pyta o szczegóły – tylko 1,4% takich ruchów.
To jak rozmowa z kimś, kto nie słucha.
Wniosek? AI służy do eksploracji pomysłów i szybkich testów, nie do pisania gotowców. Programiści traktują je jak super-kaczkę gumową: generują masę, wyrzucają śmieci, szlifują perełki.
Czego programiści naprawdę oczekują od AI
Niespodzianka: najczęstsze zapytania do AI to nie "napisz kod", ale "wyjaśnij go".
19% próśb dotyczy analizy istniejącego kodu – więcej niż generowanie nowego. AI działa jak detektyw kodu, generator dokumentacji czy przyspieszacz onboardingu w obcych projektach.
A my wciskamy "pisz mniej", podczas gdy oni chcą "zrozumieć więcej".
Pułapka "eksperta-marudy"
47% fanów kodowania na czuja to "eksperci-marudy". Aktywnie czepiają się każdej sugestii AI, poprawiając drobiazgi.
To strata czasu. Skoro i tak przeglądasz linię po linii, po co ten tryb? Dane pokazują, że współpraca jest lepsza – tańsza, bezpieczniejsza i wydajniejsza.
Ci marudy marnują energię na kod, który sami napisaliby szybciej. Tylko... wolniej.
Konkretne wpadki z życia
W danych jest masa przykładów porażek. Jeden: programista prosi o naprawę wolnych animacji w apce iOS. AI grzebie w złym miejscu – stagger kart zamiast animacji kontenera.
Po serii poprawek? Zero efektu. Zero commita. AI nie ogarnęło kontekstu przestrzennego ani priorytetów.
Inny: ekspert-maruda w pętli mikro-poprawek. "Nie twórz funkcji", "wklej UUID inline", "zmień nazwę stałej". Deweloper stał się recenzentem, nie koderem.
Co to znaczy dla twojego zespołu
Wprowadzasz AI do kodowania? Oto rady z danych:
Stawiaj na zrozumienie, nie pisanie: AI błyszczy w wyjaśnianiu i dokumentacji, słabiej w kreacji.
Wybieraj współpracę: Te 36,5% sesji to optimum – bezpieczeństwo, prędkość, zadowolenie. Kodowanie na czuja kusi, ale ryzyko za duże.
Zaplanuj przeglądy: Na kod z AI wydaj czas na skanery jak Semgrep czy Snyk. Te 9x więcej luk to nie teoria – dzieje się teraz.
Mierz to, co wypływa: Jak w danych, wyrzucisz 55% sugestii. To nie błąd, to cel. Oceniaj trafność, nie ilość.
Szerszy obraz
SWE-chat ceni się za szczerość. Pokazuje prawdziwych programistów w realnych flow, z ich wyborami.
Hype wokół AI jest na wyrost. Nie oddajemy kodowania maszynom. Używamy ich jako narzędzi do myślenia – odrzucamy większość, kontrolujemy wszystko.
AI jest mocne. Ale nie czaruje. Wygrywają ci, co traktują je jak partnera: z dystansem i pełnym zaangażowaniem.
Dane to potwierdzają.
Chcesz głębiej? Cały zbiór SWE-chat jest publiczny. Jeśli budujesz narzędzia na AI, te wzorce użycia to złoto dla twojej mapy drogowej. Zrozumienie, jak programiści naprawdę działają, bije domysły na głowę.