
Ny sikkerhed i ChatGPT: “Lockdown Mode” og tydelige risikomærker på funktioner
OpenAI har den 13. februar 2026 lanceret to nye sikkerhedstiltag i ChatGPT, der især er relevante for organisationer med skærpede krav til databeskyttelse: Lockdown Mode (en sikker tilstand, der begrænser funktioner og eksterne forbindelser) og “Elevated Risk” (et “højere risiko”-mærke, der gør det tydeligere, hvilke funktioner der kan give ekstra data- eller netværksrisiko).
Funktionerne er tilgængelige for ChatGPT Enterprise, Edu, for Healthcare og for Teachers. Administratorer kan aktivere Lockdown Mode i workspace-indstillinger og tildele den til udvalgte brugere via en særlig rolle.
Kort fortalt
- Lockdown Mode er en valgfri sikker tilstand til højrisikobrugere i en organisation.
- Tilstanden begrænser bl.a. live web-adgang (kun cachet indhold), forhindrer billeder i svar, slår dybdegående research-funktioner fra og deaktiverer funktioner, hvor ChatGPT kan udføre handlinger via internet/værktøjer på brugerens vegne.
- Netværksanmodninger fra Canvas (ChatGPT’s arbejdsområde til tekst og kode) blokeres.
- ChatGPT kan ikke downloade filer til analyse – men kan stadig arbejde med filer, som brugeren selv uploader.
- Lockdown Mode slår ikke automatisk apps/integrationer fra; det skal styres særskilt af administratorer.
- OpenAI’s compliance-logs (revisionslogge) påvirkes ikke af Lockdown Mode.
| Funktion | Normal tilstand | Lockdown Mode |
|---|---|---|
| Live web-adgang | Ja | Begrænset (kun cachet indhold) |
| Billeder i svar | Ja | Nej |
| Dybdegående research | Ja | Deaktiveret |
| Handlinger via internet/værktøjer | Ja | Deaktiveret |
| Netværk fra Canvas | Muligt | Blokeret |
| Fil-download til analyse | Ja | Nej (manuel upload OK) |
Hvad betyder det for danske virksomheder?
For virksomheder og offentlige enheder, der arbejder med personoplysninger, klientbilag eller anden følsom information, er nyheden interessant, fordi den giver en mere håndgribelig måde at begrænse “udgående veje” for data. Det passer direkte ind i den type vurderinger, mange allerede laver under GDPR artikel 32 (krav om passende tekniske og organisatoriske sikkerhedsforanstaltninger). Lockdown Mode gør ikke i sig selv en løsning lovlig eller “GDPR-godkendt”, men kan være et konkret sikkerhedstiltag i den samlede pakke.
Et praktisk eksempel: I et regnskabs- eller revisionshus kan Lockdown Mode bruges til medarbejdere, der håndterer klientmateriale, så værktøjet ikke kan bruge live web-adgang eller andre funktioner, der øger risikoen for utilsigtet dataudslip—mens andre roller (fx marketing) fortsat kan arbejde med færre begrænsninger.
Det kan du gøre nu
- Afklar om I har adgang (Enterprise/Edu/Healthcare/Teachers).
- Udpeg højrisikoroller (fx revision, HR, jura, ledelse) og overvej Lockdown Mode til dem først.
- Gennemgå apps og integrationer: Lockdown Mode slår dem ikke fra automatisk—lav en godkendt liste og vær ekstra varsom med funktioner, der kan skrive/ændre data.
- Opdatér jeres politik for brug af kunstig intelligens: Beskriv hvornår Lockdown Mode skal bruges, og hvem der kan godkende undtagelser.
- Brug revisionslogge aktivt til intern kontrol og dokumentation ved audit og compliance.
Kilder
- OpenAI: Introducing Lockdown Mode and Elevated Risk labels in ChatGPT (13. februar 2026) — https://links.tldrnewsletter.com/aLnbYG
- OpenAI Help Center: Lockdown Mode — https://help.openai.com/articles/20001061/
- OpenAI: Compliance Logs — https://help.openai.com/en/articles/9261474
- OpenAI: Data Processing Addendum — https://openai.com/policies/data-processing-addendum/
- GDPR artikel 32 — https://www.privacy-regulation.eu/en/article-32-security-of-processing-GDPR.htm
🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.
Læs original kilde →Fandt du en fejl?