
Ny rapport tester, om digitale assistenter kan snydes – og hvad der virker som forsvar
Kort fortalt:
- En ny rapport fra Brane Labs tester, hvordan digitale assistenter med kunstig intelligens kan blive manipuleret, når de får adgang til virksomhedssystemer
- Ét direkte angreb blev afvist i testen, mens et mere indirekte forsøg via dataformatet JSON stadig afventer endelig analyse
- Konklusionen er jordnær: Sikkerhed handler især om adgangsbegrænsning, isolation, overvågning og menneskelig kvalitetssikring
Brane Labs’ OpenClaw Observatory Report #1 (1. februar 2026) kigger på et scenarie, mange danske virksomheder står foran: Digitale assistenter, der ikke kun svarer på spørgsmål, men også kan udføre handlinger i systemer som sagsbehandling, økonomi eller kundeservice.
Rapportens hovedidé er, at risikoen især vokser, når tre ting mødes: adgang (hvad systemet kan se), eksponering (hvad det bliver fodret med udefra) og handlefrihed (hvad det må gøre selv). Jo mere “digital medarbejder” du gør løsningen, jo mere skal du også styre den som en medarbejder med nøgler til kontoret.
I rapportens første testforsøg blev et direkte manipulationsforsøg (social manipulation – altså et forsøg på at lokke systemet til at gøre noget forkert) afvist. Forfatterne beskriver det som en 100% afvisning i netop det scenarie. I et andet forsøg blev der leveret et indirekte input via JSON (et almindeligt dataformat), men resultatet er markeret som afventer analyse i denne rapport. Med andre ord: De “snu” angrebsveje er ikke færdigbelyst endnu.
For danske organisationer er pointen ikke, at man skal droppe kunstig intelligens – men at man skal indføre simple sikkerhedsvaner fra start.
| Typisk risiko | Praktisk modtræk |
|---|---|
| For brede adgangsrettigheder | Mindst-mulige rettigheder: giv kun adgang til det nødvendige |
| Kritiske systemer kobles direkte på | Isolér løsningen fra økonomi/HR/kernesystemer (test først i et sikkert miljø) |
| Handlinger kan ikke forklares bagefter | Overvåg handlinger og gem logfiler, der ikke kan “pilles ved” |
| Ukendte filer/data behandles automatisk | Behandl eksterne dokumenter/JSON/skabeloner som potentielt upålidelige |
Det kan du gøre nu
- Lav en adgangsoprydning: Hvad kan jeres digitale assistenter tilgå – og hvad kan de ændre?
- Indfør menneskelig kvalitetssikring ved betalinger, dataudtræk, ændring af rettigheder og andre “irreversible” handlinger.
- Isolér og test før drift: Start i et afgrænset miljø uden adgang til kritiske systemer.
- Krav til leverandører: Bed om dokumentation for overvågning/logning og hvordan de håndterer ubetroede input (filer, skabeloner, data).
- Følg op: Rapport #2 varsler test af mere vedvarende påvirkning (hvor noget kan “hænge ved” over tid).
Kilder
- Brane Labs (Observability Division), OpenClaw Observatory Report #1 (PDF, 13 sider, 1. februar 2026): https://gobrane.com/wp-content/uploads/2026/02/main.pdf?utm_source=tldrinfosec
🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.
Læs original kilde →Fandt du en fejl?