
Datateams får en ny opgave: styr konteksten bag kunstig intelligens
Mange virksomheder oplever, at løsninger med kunstig intelligens kan svare forskelligt fra dag til dag – eller svare overbevisende, men forkert. En ny pointe fra New AI Order er, at problemet ofte ikke er teknologien, men virksomhedens egen viden: den er støjende, u-styret og fuld af modstridende versioner.
Kort fortalt
- Kunstig intelligens bliver upålidelig, når den bygger på forældede eller modstridende dokumenter
- Løsningen er et styret “kontekstlag”: versioneret og dokumenteret viden, som systemet må bruge
- Mere information er ikke altid bedre: for meget gør det langsommere og dyrere – og kan forringe kvaliteten
- Effekten bør måles på korrekthed, svarprocent, hastighed og omkostning
- Datateams bør udvikle sig til “kontekstteams” med ansvar for den viden, der bruges i praksis
Fra datateam til kontekstteam
I indlægget argumenterer Claire Gouze for, at datateams skal tage ejerskab over det, der i praksis afgør, om en digital assistent virker: hvilken viden den får lov at “læse”.
Mange organisationer starter med at give kunstig intelligens adgang til “alt”: fællesdrev, intranet, gamle PDF’er og måske endda chat-uddrag. Men hvis der ligger tre versioner af samme HR-politik, eller hvis en økonomiprocedure er ændret uden at den gamle er arkiveret, kan systemet ikke vide, hvad der gælder. Resultatet kan blive “hallucination” (når systemet opfinder fakta eller vælger en forkert kilde).
Et centralt forslag er derfor et styret kontekstlag: et kurateret bibliotek af godkendte, opdaterede kilder med tydelig versionshistorik.
| Det skal balanceres | Hvorfor det betyder noget |
|---|---|
| Korrekthed | Svar skal bygge på gældende retningslinjer |
| Svarprocent | Systemet skal kunne svare på de typiske spørgsmål |
| Hastighed | For meget materiale gør svartiden langsom |
| Omkostning | Jo mere tekst, jo dyrere bliver hvert svar |
Hvad betyder det for danske virksomheder?
I danske virksomheder og kommuner handler det ofte om helt jordnære ting: personalehåndbog, indkøbspolitik, sagsgange, standardbreve, regnskabspraksis og interne retningslinjer. Hvis man vil bruge kunstig intelligens til intern support, udkast til notater eller hurtige svar om “hvordan gør vi her?”, skal man først kunne pege på én sandhed – og kunne dokumentere den.
Det kan du gøre nu
- Udvælg 10–20 “kritiske dokumenter”, som medarbejdere ofte spørger til (HR, økonomi, drift).
- Fjern dobbeltversioner og udpeg én gældende version pr. emne.
- Aftal ejerskab: Hvem opdaterer og godkender hvert dokument – og hvor ofte?
- Indfør simple kvalitetsmål: Hvor ofte er svaret korrekt, og hvor ofte kan systemet slet ikke svare?
- Sørg for adgangsstyring og logning, så kilder og adgang kan dokumenteres.
Kilder
- Claire Gouze: Data teams should become context teams (New AI Order, 9. februar 2026)
https://thenewaiorder.substack.com/p/data-teams-should-become-context?utm_source=tldrdata - Wikipedia: Retrieval-augmented generation (teknik hvor systemet slår op i dokumenter før det svarer)
https://en.wikipedia.org/wiki/Retrieval-augmented_generation - Pinecone: Overblik over, hvordan man reducerer “opfundne svar” i generativ kunstig intelligens
https://www.pinecone.io/learn/options-for-solving-hallucinations-in-generative-ai/
🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.
Læs original kilde →Fandt du en fejl?