
OpenAI begrænser automatisk linkhentning for at lukke datalæk via webadresser
Den 28. januar 2026 offentliggjorde OpenAI en ny sikkerhedsmekanisme, der skal forhindre, at digitale assistenter med kunstig intelligens uforvarende sender data ud af virksomheden gennem de links, de åbner.
Kort fortalt
- Digitale assistenter kan komme til at lække oplysninger, hvis de automatisk åbner links, hvor data er “pakket ind” i selve webadressen
- OpenAI vil nu kun lade en digital assistent hente indhold automatisk fra links, der allerede findes i et uafhængigt webindeks
- Private eller ukendte links udløser en advarsel og kræver, at en bruger bekræfter handlingen
- Mekanismen gør ikke indholdet på en hjemmeside sikkert i sig selv, men gør en bestemt type datalæk væsentligt sværere
Problemet: Data kan smugles ud via et link
Når en digital assistent kan åbne webadresser på egen hånd, opstår en konkret risiko: En ondsindet instruktion i et dokument eller en besked kan få assistenten til at danne eller følge et link, hvor fortrolige oplysninger ligger som en “ekstra hale” i slutningen af webadressen (for eksempel et navn, et sagsnummer eller et beløb). Når linket åbnes, sendes webadressen til den server, der modtager forespørgslen — og dermed kan oplysningerne sive ud.
Løsningen: Kun kendte links hentes automatisk
OpenAI’s nye greb er at indføre et filter baseret på et uafhængigt webindeks (en fortegnelse over offentligt tilgængelige websider), som kører uden adgang til brugerdata. Kun hvis et link allerede findes i dette indeks, må en digital assistent hente indhold automatisk.
| Linktype | Hvad sker der? |
|---|---|
| Offentligt indekseret link | Assistenten henter indhold automatisk |
| Privat eller ukendt link | Brugeren ser en advarsel og skal selv bekræfte |
Konsekvensen er, at mange helt legitime, men private links (fx midlertidige delingslinks eller interne systemer) oftere vil kræve manuel bekræftelse.
Hvad det betyder for danske virksomheder
Forestil dig en kommune, der bruger en digital assistent med kunstig intelligens til at opsummere borgerdokumentation og følge links i materialet. Hvis linkhentning sker automatisk, kan der opstå utilsigtet deling af følsomme oplysninger. OpenAI’s løsning reducerer risikoen, men den ændrer ikke på, at virksomheden eller myndigheden stadig har ansvaret for adgangsstyring, logning og kontrol.
Det bør ses i sammenhæng med persondataforordningen, især artikel 32 om passende sikkerhedsforanstaltninger og artikel 35 om konsekvensanalyse ved høj risiko.
Det kan du gøre nu
- Fastlæg klare regler for, hvilke links og eksterne systemer digitale assistenter må tilgå automatisk
- Kræv menneskelig godkendelse, når der åbnes private/midlertidige links eller når der arbejdes med følsomt indhold
- Sørg for logning og løbende kontrol af, hvornår der hentes eksternt indhold
- Vurdér om jeres brug af kunstig intelligens kræver en konsekvensanalyse efter artikel 35
Kilder
- https://links.tldrnewsletter.com/bbaOkP (viderestiller til OpenAI’s omtale af mekanismen, 28. januar 2026)
- https://cdn.openai.com/pdf/dd8e7875-e606-42b4-80a1-f824e4e11cf4/prevent-url-data-exfil.pdf (teknisk dokument om URL-baseret datalæk og afværgning)
🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.
Læs original kilde →Fandt du en fejl?