Spring til indhold
Tilbage til nyheder
Når en chatbot banker på døren til lukkede netværk

Når en chatbot banker på døren til lukkede netværk

AISikkerhedRegulering

Virksomheder og myndigheder taler ofte om AI som et produktivitetsværktøj. Den svære beslutning kommer først, når modellen skal tæt på følsomme data. Den diskussion er nu blevet meget konkret i USA, hvor senator Elizabeth Warren presser Pentagon for svar på, hvorfor xAI har fået adgang til klassificerede netværk.

💡 Hvad sagen viser

Grok er ifølge TechCrunch blevet onboardet til brug i et klassificeret miljø, men er endnu ikke taget i drift der.

Warren efterlyser dokumentation for sikkerhedskontrol, databehandling og guardrails.

Sagen kommer efter en række kendte problemer med Groks output, blandt andet skadeligt og ulovligt indhold.

Det er let at afvise historien som amerikansk storpolitik. Det vil være en fejl. Den rammer lige ned i et spørgsmål, som også danske kommuner, regioner, styrelser og større virksomheder står med: Hvad kræver det, før en generativ model må komme tæt på systemer, som ikke tåler fejl eller læk?

Ifølge TechCrunch vil Pentagon også bruge Grok på GenAI.mil, som er militærets godkendte platform til generativ AI i cloud-miljøer. Den er i første omgang tænkt til opgaver som research, dokumentudkast og dataanalyse. Alligevel er pointen den samme. Når en leverandør får plads i et lukket miljø, er det ikke længere nok at tale om flotte svar og hurtige demoer. Så handler det om revisionsspor, adgangskontrol, hændelseshåndtering og klare regler for, hvordan modellen opdateres.

Det er her mange danske organisationer stadig er for løse i kanten. Der købes licenser og piloter, men det er mindre tydeligt, hvem der har godkendt datatyperne, hvem der fører tilsyn, og hvad der sker, hvis leverandøren ændrer modeladfærd fra den ene uge til den anden. Den slags kan være irriterende i marketing. Det kan være alvorligt i sagsbehandling, forsyning, sundhed og sikkerhedsarbejde.

Sagen er også en påmindelse om, at leverandørvurdering ikke må reduceres til en pdf med generelle løfter. Hvis en model skal tæt på fortrolige data, bør der ligge konkrete krav til logging, segmentering af data, test af skadelige outputs og en plan for hurtig frakobling. Det gælder uanset om leverandøren hedder xAI, OpenAI, Microsoft eller noget fjerde.

Det mest fornuftige, man kan gøre nu, er at behandle generativ AI som enhver anden højrisiko-komponent. Få styr på dataklassifikation først. Kræv dokumentation før adgang. Og lad være med at forveksle adgang til et sikkert miljø med faktisk sikker drift. Det er to forskellige ting.

🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.

Læs original kilde →

Fandt du en fejl?