Spring til indhold
Tilbage til nyheder
Tidligere tech-topleder: Det er ikke værktøjet, men spillereglerne, der afgør om kunstig intelligens skaber værdi

Tidligere tech-topleder: Det er ikke værktøjet, men spillereglerne, der afgør om kunstig intelligens skaber værdi

Kunstig intelligensProduktivitetSoftwareudviklingOrganisering

Andrej Karpathy – en markant profil inden for kunstig intelligens og tidligere leder i tech-branchen – skriver i et nyt opslag på X, at han på få måneder har ændret sin måde at udvikle software på. Hvor han før skrev det meste kode selv, instruerer han nu i høj grad digitale assistenter som Claude (fra Anthropic) og Codex (fra OpenAI) og bruger sin tid på at gennemgå og rette resultatet.

Kort fortalt:

  • Digitale assistenter med kunstig intelligens kan nu løse flere kodeopgaver mere selvstændigt
  • Gevinsten kommer især fra hastighed og “udholdenhed” – systemet prøver mange muligheder uden at gå i stå
  • Risikoen flytter sig: fejlene er ofte subtile misforståelser, overkomplicerede løsninger og skjulte antagelser
  • Konklusionen er praktisk: I 2026 handler værdien ofte mere om arbejdsgange og kvalitetssikring end om “den smarteste model”

Hurtigere – men kræver skarpere kontrol

Karpathy fremhæver, at kunstig intelligens kan øge tempoet og rækkevidden i softwarearbejde. Men han advarer også om, at kvaliteten ikke kommer af sig selv. I stedet for tydelige fejl kan man få kode, der næsten virker, men bygger på forkerte antagelser, eller som gør en simpel opgave unødvendigt kompliceret. Derfor peger han på behovet for systematisk test og menneskelig gennemgang, før noget bliver en del af et produkt.

Hvad betyder det for danske virksomheder?

Herhjemme ser vi allerede mønsteret: Mange investerer i værktøjer med kunstig intelligens, men mangler fælles spilleregler for, hvordan de bruges sikkert og ensartet.

Et økonomi-team kan fx få lavet udkast til rapporter eller små automatiseringer hurtigere. En kommune kan bruge kunstig intelligens til at sortere henvendelser eller skrive kladder til svar. Men gevinsten kommer først for alvor, når der er tydelige godkendelsespunkter: Hvem tjekker rigtighed? Hvem har ansvar, hvis noget er forkert? Hvornår må noget sendes videre?

FokusVærktøj-fokusProces-fokus
Typisk spørgsmål“Hvilken løsning er smartest?”“Hvordan sikrer vi kvalitet – hver gang?”
RisikoFejl opdages for sentLangsommere start, færre fejl
Effekt over tidSvingendeMere stabil og forudsigelig

GDPR-kort sagt: Hvis kunstig intelligens arbejder med persondata (kunder, borgere, ansatte), skal der være dokumentation, klare godkendelser og styr på databehandling. Automatik uden kontrolpunkt er en risikabel genvej.

Det kan du gøre nu

  • Udpeg en ansvarlig for kvalitet og godkendelse (ikke “alle og ingen”)
  • Indfør faste kontrolpunkter, før noget sendes til kunder/borgere eller går i drift
  • Start med én afgrænset opgave, hvor fejl ikke får store konsekvenser
  • Sæt en simpel kvalitetsstandard (fx “ingen ændringer uden test” og “ingen levering uden gennemgang”)
  • Dokumentér jeres spilleregler på én side, så arbejdsgangen kan skaleres
  • Lav et GDPR-tjek, hvis der indgår persondata eller følsomme oplysninger

Kilder

🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.

Læs original kilde →

Fandt du en fejl?