
Når automatisering møder ansvar: Ny delegationsmodel til brugerflader med kunstig intelligens
En ny model fra designeren Taras Bakusevych sætter ord og struktur på et spørgsmål, mange danske ledere sidder med lige nu: Hvad skal et automatisk system med kunstig intelligens kunne gøre selv — og hvad bør altid stoppes af et menneske, før der trykkes “godkend”?
Kort fortalt
- Delegationsmatrixen deler opgaver i menneskestyret, assisteret (med menneskelig kvalitetssikring) og delegeret (kører selv inden for rammer)
- Vurderingen handler især om risiko, hvor let noget kan fortrydes, og hvor stor gevinsten er i hverdagen
- Modellen kan bruges som fælles sprog mellem forretning, it og compliance, før man bygger automatisering ind i en løsning
Tre niveauer af kontrol (og én vigtig “lad være”)
Modellen arbejder med tre kontrolniveauer — plus en fjerde mulighed, udskyd, når hverken gevinsten eller sikkerheden er god nok.
| Kontrolniveau | Hvad systemet gør | Eksempler fra artiklen |
|---|---|---|
| Menneskestyret | Systemet kan forberede overblik, men mennesket beslutter | Personalebeslutninger, juridisk/etisk ansvar, krisehåndtering |
| Assisteret | Systemet foreslår/udkast – en person gennemgår og godkender | Indhold/moderation, sortering (triage), betalinger som forslag der kræver godkendelse |
| Delegeret | Systemet udfører selv inden for faste grænser | Mødeplanlægning, spamfiltrering, kategorisering/normalisering af data |
To spørgsmål, der afgør hvor du ender
I praksis handler matrixen om to vurderinger:
- Automatiserings-egnethed: Kan handlingen fortrydes? Hvor stor skade kan en fejl give? Er det klare regler – eller kræver det menneskeligt skøn?
- Automatiserings-afkast: Hvor ofte sker opgaven? Er data stabile? Kan teknologien løse det ensartet?
Det lyder enkelt, men netop enkelheden gør den brugbar som beslutningsværktøj, før man får “bygget for meget” ind i brugerfladen.
Hvad betyder det for danske virksomheder?
I en økonomifunktion kan delegationsmatrixen være forskellen på tryg automatisering og dyre fejl. Eksempel: Et system med kunstig intelligens kan ofte delegeres til at matche fakturalinjer, rydde op i leverandørnavne og foreslå konteringer. Men betalingsfrigivelse og bogføringsrettelser bør typisk være assisteret med tydelig godkendelse, beløbsgrænser og sporbar historik.
I offentlig sektor peger modellen i samme retning: Kunstig intelligens kan være god til at opsummere sagsforløb og finde relevante dokumenter, men afgørelser der påvirker borgeres rettigheder bør være menneskestyrede — med kunstig intelligens som støtte, ikke som beslutningstager.
Det kan du gøre nu
- Lav en liste over 10 arbejdsgange, hvor I overvejer automatisering
- Markér “stop-punkter” (betaling, tildeling af adgang, afgørelser, publicering)
- Placér hver arbejdsgang som menneskestyret/assisteret/delegeret — og vælg bevidst “udskyd”, når det er uklart
- Start med én delegeret opgave med lav risiko og let mulighed for at rulle tilbage
- Sæt rammer: beløbsloft, tilladte handlinger, log/historik og stikprøvekontrol
Kilder
- Taras Bakusevych (Substack): https://syntaxstream.substack.com/p/the-ai-delegation-matrix-what-parts
- UX Collective (genpublicering): https://uxdesign.cc/the-ai-delegation-matrix-what-parts-of-your-ui-shouldnt-exist-f4b97f9c4491
- TLDR-redirect: https://links.tldrnewsletter.com/H7QnAd
🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.
Læs original kilde →Fandt du en fejl?