Spring til indhold
Tilbage til nyheder
Kunstig intelligens bliver et jobkrav: Direktionernes nye memos spreder sig

Kunstig intelligens bliver et jobkrav: Direktionernes nye memos spreder sig

Kunstig intelligensLedelseStrategiForandringsledelse

Flere internationale topledere udsender i øjeblikket interne “kunstigt intelligens-først”-memos, der gør brug af kunstig intelligens til en grundforventning i hverdagen. Pointen er ikke bare at introducere et nyt værktøj, men at ændre, hvordan medarbejdere bliver målt, hvordan teams får ressourcer – og hvordan risiko bliver håndteret.

Kort fortalt

  • Kunstig intelligens bliver i stigende grad en forventning, der påvirker både bemanding og medarbejdervurderinger
  • Mange direktioner melder kursen ud, før de har defineret, hvad “kunstigt intelligens-først” betyder i praksis
  • For danske virksomheder bliver ledelsesrammer (data, ansvar og kvalitet) afgørende for at undgå kaos

Fra signal til styring: sådan ser det ud i praksis

Shopifys direktør Tobi Lütke skrev i april 2025, at “refleksiv brug” af kunstig intelligens nu er en baseline-forventning. Ifølge omtaler skal teams i praksis kunne forklare, hvorfor kunstig intelligens ikke kan løse en opgave, før de kan argumentere for flere hænder – og brugen kobles til medarbejdervurderinger.

Duolingo meldte også en “kunstigt intelligens-først”-retning ud, men oplevede så kraftig kritik, at kommunikationen efterfølgende blev justeret. Det er en vigtig påmindelse: En memo kan skabe fart, men også modstand, hvis medarbejdere oplever uklare krav eller utryghed.

I finanssektoren går Citigroup en mere struktureret vej med obligatorisk træning for omkring 175.000 ansatte. Og flere medier beskriver, at Meta vil lade “effekt skabt med kunstig intelligens” indgå i medarbejdervurderinger fra 2026.

Hvad betyder det for danske virksomheder?

Den største barriere herhjemme er sjældent adgang til teknologi. Det svære er at få hverdagen til at hænge sammen: Hvad må medarbejdere bruge kunstig intelligens til? Hvilke data må aldrig kopieres ind? Hvem har ansvaret, hvis output er forkert – og hvordan sikrer man menneskelig kvalitetssikring?

Det kan du gøre nu

  • Definér forventningen: Er kunstig intelligens en mulighed, en anbefaling eller et krav – og for hvilke roller?
  • Lav en enkel “må/må ikke”-liste: Især ift. persondata, fortrolige kundedata og interne strategier.
  • Udpeg ansvarlige: Hvem godkender brug, hvem ejer data, og hvem følger op på kvalitet?
  • Start småt – men konkret: Vælg 2–3 processer (fx kundesvar, mødereferater, udkast til sagsnotater) og mål effekt.
  • Gør træning praktisk: Korte øvelser i jeres egne opgaver slår lange præsentationer.

Kilder

🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.

Læs original kilde →

Fandt du en fejl?