Spring til indhold
Tilbage til nyheder
Kunstig intelligens kræver processer – ikke bare pænere instruktioner

Kunstig intelligens kræver processer – ikke bare pænere instruktioner

Kunstig intelligensLedelseGovernanceKvalitetssikring

Når en løsning med kunstig intelligens skuffer, ender mange med at finpudse teksten til chatbotten. En ny artikel fra Bicameral peger på, at det sjældent rammer kernen: De største problemer handler oftere om uklare krav, manglende afgrænsning, svag kvalitetssikring og det, der i praksis bliver til teknisk gæld (ekstra oprydningsarbejde og vedligeholdelse senere, fordi man skyndte sig nu).

Kort fortalt

  • Mange begrænsninger opdages først, når løsningen skal bygges og kobles på virkeligheden
  • Viden om begrænsninger forsvinder let i chat-tråde og mundtlige aftaler
  • Bedre instruktioner hjælper, men kan ikke erstatte ansvar, test og tydeligt ejerskab

Hvorfor det betyder noget for danske virksomheder

Bicameral bygger sin pointe på erfaringer og en mindre spørgeundersøgelse (omkring 40+ svar) fra udviklingsmiljøer: En stor del af de afgørende “hov, det kan vi ikke”-begrænsninger dukker først op under implementeringen. Samtidig skal mange af de begrænsninger forklares til kolleger uden teknisk rolle – ofte via fragmenteret dokumentation.

Det er relevant for danske virksomheder og kommuner, fordi kunstig intelligens typisk sættes ind i forretningsprocesser, hvor fejl er dyre: bogføring, kundeservice, sagsbehandling, indkøb eller HR. Her kan et automatisk system godt levere et flot svar – men det er dårligere til at sige fra, når opgaven er uklart defineret, eller når data er ufuldstændige.

Et jordnært eksempel: Hvis du vil bruge kunstig intelligens til at hjælpe med afstemning i økonomi, hjælper bedre instruktioner ikke meget, hvis bilag ligger spredt, felter er udfyldt forskelligt, eller ingen har besluttet, hvornår en medarbejder skal godkende resultatet.

SymptomHvorfor instruktioner ikke er nokHvad hjælper
Svarene variererKrav og grænser er uklareAftal “godt nok” + klare stop-regler
“Den finder på”Mangler dokumenteret grundlagBrug kilder/dokumenter som facit og kræv henvisninger
Lav tillid interntIngen fast kvalitetssikringIndfør menneskelig gennemgang på kritiske trin

Bicamerals budskab flugter med NIST’s rammeværk for risikostyring af kunstig intelligens: Governance, løbende risikovurdering og opfølgning er en del af løsningen – ikke noget, man “tilføjer senere”.

Det kan du gøre nu

  1. Afgræns opgaven skriftligt: Hvad må systemet gøre, og hvornår skal det stoppe og sende videre til en medarbejder?
  2. Gør kvalitet målbar: Beslut på forhånd, hvordan I tester rigtighed (fx stikprøver, fejltyper, godkendelsesflow).
  3. Saml beslutninger ét sted: Hvis viden kun ligger i chat-tråde, kommer I til at betale regningen senere.
  4. Placér ansvar: Hvem ejer processen, og hvem følger op, når systemet ændrer adfærd over tid?

Kilder

🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.

Læs original kilde →

Fandt du en fejl?