
Ny sikkerhedstilstand i ChatGPT: Sådan kan virksomheder reducere risikoen for dataudslip
OpenAI har introduceret en valgfri Lockdown Mode (nedlåsningstilstand) i ChatGPT målrettet arbejdsgange med høj risiko. Samtidig bliver udvalgte funktioner nu mærket med Elevated Risk (forhøjet risiko), så det bliver tydeligere, hvornår en funktion kan øge risikoen for angreb og uønsket datadeling.
Kort fortalt
- Lockdown Mode begrænser udvalgte funktioner i ChatGPT for at mindske risikoen ved følsomme opgaver.
- OpenAI indfører “forhøjet risiko”‑mærkning i ChatGPT, ChatGPT Atlas og Codex på funktioner, der kan øge angrebsfladen (særligt ved netværksadgang).
- Det er et vigtigt sikkerhedslag – men erstatter ikke interne politikker, adgangsstyring og logning.
Når medarbejdere bruger kunstig intelligens tæt på persondata, økonomi eller borger- og kundesager, handler en stor del af risikoen om to klassikere: prompt-injektion (angreb hvor tekst forsøger at narre systemet til at gøre noget uønsket) og dataudslip (uønsket deling af data). Her forsøger Lockdown Mode at lukke nogle af de “udgange”, hvor data ellers kan slippe ud – eller hvor eksternt indhold kan påvirke svarene.
Lockdown Mode kan aktiveres af en workspace-administrator via roller og rettigheder og er ifølge OpenAI tilgængelig for ChatGPT Enterprise, Edu samt særlige brancheversioner (Healthcare og Teachers) på udgivelsestidspunktet.
Hvad ændrer Lockdown Mode?
| Funktion | Normal | Lockdown Mode |
|---|---|---|
| Webadgang | Fuld adgang | Begrænset til lagret indhold |
| Dybdegående research-funktion | Aktiv | Slået fra |
| Funktion hvor ChatGPT kan arbejde i flere trin på dine vegne | Aktiv | Slået fra |
| Billeder i svar | Muligt | Blokeret |
| Automatisk filhentning til analyse | Muligt | Blokeret |
| Manuel upload af filer | Muligt | Stadig muligt |
OpenAI understreger samtidig, at mærkningen “forhøjet risiko” vil blive brugt på en kort liste af funktioner (og opdateret løbende). Pointen for danske virksomheder er enkel: Når et værktøj tydeligt siger “forhøjet risiko”, bør det udløse en ledelsesbeslutning – ikke et tilfældigt tilvalg.
Det kan du gøre nu
- Udpeg højrisiko-områder (typisk HR, økonomi, jura, indkøb og sagsbehandling) og beslut, hvor nedlåsningstilstand bør være standard.
- Gennemgå hvilke funktioner der må bruges hvornår: Netværksadgang og “handlinger på dine vegne” bør som udgangspunkt kræve en bevidst godkendelse i ledelsen.
- Sæt roller og rettigheder op: Ikke alle medarbejdere skal have samme muligheder i ChatGPT – især ikke ved følsomme data.
- Hold fast i basisdisciplin: Klare retningslinjer for hvad man må indtaste, plus logning/tilsyn (i Enterprise) og en enkel proces for hændelser.
Kilder
🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.
Læs original kilde →Fandt du en fejl?