
Når kunstig intelligens rykker ind i udviklingsteamet, kan samarbejdet knirke
Kort fortalt:
- Generativ kunstig intelligens kan give mere støj i teamets kommunikation, fordi ændringsforslag og dokumentation bliver længere og mindre prioriteret
- Der opstår nye, ofte subtile fejltyper, som er sværere at fange ved en hurtig gennemgang
- Ejerskab og videndeling kan blive uklart: Hvem kan egentlig forklare, hvorfor koden ser ud, som den gør?
- Pointen er ikke at stoppe brugen, men at indføre tydelige vaner for ansvar, mærkning og kvalitetssikring
En erfaringsbaseret artikel fra udvikleren bag Sinclair Target peger på “negative bivirkninger” ved generativ kunstig intelligens i softwareteams: Gevinsten ved hurtigere kode kan blive spist op af ekstra arbejde i resten af teamet.
Først og fremmest handler det om kommunikation. Når en kodningsassistent også hjælper med beskrivelser og dokumentation, bliver teksten ofte lang og uden et klart hierarki. Det gør det sværere for kolleger at se, hvad der reelt er ændret – og hvad der er vigtigst.
Dernæst peger artiklen på, at fejlene kan skifte karakter. Et konkret eksempel er fra programmeringssproget Python, hvor en lille “tænd/sluk”-indstilling (et kommandolinje-flag) endte med at vende betydningen af et sikkerhedsflag. Koden så umiddelbart fornuftig ud, men i praksis kunne en sikkerhedskontrol blive slået fra. Det er netop den type fejl, der kan glide igennem, hvis man læser for hurtigt.
Endelig bliver ejerskab mere uklart: Når ændringer er stærkt hjulpet af kunstig intelligens, er det ikke længere lige så tydeligt, hvem der faktisk forstår detaljerne. Det kan give udfordringer, når noget går galt, eller når nøglepersoner skifter job.
For danske virksomheder og kommuner er pointen enkel: Mange teams er små, og drift og sikkerhed hænger på få personer. Derfor kan “hurtigere produktion” hurtigt blive til “langsommere levering”, hvis gennemgang og ansvar ikke følger med.
| Udfordring | Hvad I kan gøre |
|---|---|
| Støj i beskrivelser og dokumentation | Kræv korte opsummeringer med “hvad, hvorfor, risiko” |
| Subtile fejl | Skærp test og gennemgang ved sikkerhedskritiske ændringer |
| Uklart ejerskab | Udpeg ansvarlige for dele af løsningen – også når kunstig intelligens hjælper |
Det kan du gøre nu
- Indfør mærkning/åbenhed: Notér tydeligt, når kunstig intelligens har bidraget væsentligt til kode eller tekst.
- Brug en fast skabelon til ændringsforslag: Hvad er ændret? Hvorfor? Hvad kan gå galt? Hvordan er det testet?
- Afsæt tid i planlægningen til grundigere kvalitetssikring, især ved sikkerhed, adgang og persondata.
- Gør ejerskab konkret: Sørg for at der altid er navngivne personer, der kan stå på mål for og forklare løsningen.
Kilder
- Negative konsekvenser ved generativ kunstig intelligens i softwareteams (Sinclair Target, februar 2026)
🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.
Læs original kilde →Fandt du en fejl?