Spring til indhold
Tilbage til nyheder
Ny sikkerhedstilstand i ChatGPT: Sådan kan virksomheder reducere risikoen for dataudslip

Ny sikkerhedstilstand i ChatGPT: Sådan kan virksomheder reducere risikoen for dataudslip

Kunstig intelligensSikkerhedGovernanceComplianceProduktnyhed

OpenAI har introduceret en valgfri Lockdown Mode (nedlåsningstilstand) i ChatGPT målrettet arbejdsgange med høj risiko. Samtidig bliver udvalgte funktioner nu mærket med Elevated Risk (forhøjet risiko), så det bliver tydeligere, hvornår en funktion kan øge risikoen for angreb og uønsket datadeling.

Kort fortalt

  • Lockdown Mode begrænser udvalgte funktioner i ChatGPT for at mindske risikoen ved følsomme opgaver.
  • OpenAI indfører “forhøjet risiko”‑mærkning i ChatGPT, ChatGPT Atlas og Codex på funktioner, der kan øge angrebsfladen (særligt ved netværksadgang).
  • Det er et vigtigt sikkerhedslag – men erstatter ikke interne politikker, adgangsstyring og logning.

Når medarbejdere bruger kunstig intelligens tæt på persondata, økonomi eller borger- og kundesager, handler en stor del af risikoen om to klassikere: prompt-injektion (angreb hvor tekst forsøger at narre systemet til at gøre noget uønsket) og dataudslip (uønsket deling af data). Her forsøger Lockdown Mode at lukke nogle af de “udgange”, hvor data ellers kan slippe ud – eller hvor eksternt indhold kan påvirke svarene.

Lockdown Mode kan aktiveres af en workspace-administrator via roller og rettigheder og er ifølge OpenAI tilgængelig for ChatGPT Enterprise, Edu samt særlige brancheversioner (Healthcare og Teachers) på udgivelsestidspunktet.

Hvad ændrer Lockdown Mode?

FunktionNormalLockdown Mode
WebadgangFuld adgangBegrænset til lagret indhold
Dybdegående research-funktionAktivSlået fra
Funktion hvor ChatGPT kan arbejde i flere trin på dine vegneAktivSlået fra
Billeder i svarMuligtBlokeret
Automatisk filhentning til analyseMuligtBlokeret
Manuel upload af filerMuligtStadig muligt

OpenAI understreger samtidig, at mærkningen “forhøjet risiko” vil blive brugt på en kort liste af funktioner (og opdateret løbende). Pointen for danske virksomheder er enkel: Når et værktøj tydeligt siger “forhøjet risiko”, bør det udløse en ledelsesbeslutning – ikke et tilfældigt tilvalg.

Det kan du gøre nu

  • Udpeg højrisiko-områder (typisk HR, økonomi, jura, indkøb og sagsbehandling) og beslut, hvor nedlåsningstilstand bør være standard.
  • Gennemgå hvilke funktioner der må bruges hvornår: Netværksadgang og “handlinger på dine vegne” bør som udgangspunkt kræve en bevidst godkendelse i ledelsen.
  • Sæt roller og rettigheder op: Ikke alle medarbejdere skal have samme muligheder i ChatGPT – især ikke ved følsomme data.
  • Hold fast i basisdisciplin: Klare retningslinjer for hvad man må indtaste, plus logning/tilsyn (i Enterprise) og en enkel proces for hændelser.

Kilder

🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.

Læs original kilde →

Fandt du en fejl?