
Ny sikkerhedstest fra 1Password: Digitale assistenter kan lække adgangskoder – men simple regler hjælper
1Password har offentliggjort en ny, åben standardtest, der måler, om digitale assistenter baseret på kunstig intelligens kan arbejde sikkert i realistiske hverdagssituationer. Testen viser, at selv stærke løsninger kan lave kritiske fejl – men også at et kort sæt klare sikkerhedsregler kan reducere risikoen markant.
Kort fortalt
- 1Password har open-sourcet SCAM (Security Comprehension and Awareness Measure) – en standardtest for sikkerhedsadfærd i realistiske arbejdsscenarier.
- I 30 scenarier på tværs af flere førende modeller for kunstig intelligens begik alle mindst én kritisk fejl i hver testkørsel.
- 1Password rapporterer, at et kort regelsæt (omtrent én side tekst) sænkede antallet af kritiske fejl fra 287 til 10 på tværs af testkørsler.
Hvad går nyheden ud på?
SCAM sætter en digital assistent i situationer, der ligner almindeligt kontorarbejde: e-mails med svindel, webadresser der ligner de rigtige, login-flow, og situationer hvor systemet bliver lokket til at dele hemmeligheder. Pointen er ikke, om systemet kan genkende svindel, men om det handler sikkert, før skaden sker.
Et konkret eksempel fra 1Password er, at en af de bedst præsterende løsninger kunne gennemskue en falsk side – men først efter at have tastet login-oplysninger ind. Med klare sikkerhedsregler nægtede den samme løsning at fortsætte.
1Password har testet flere kendte løsninger (bl.a. fra OpenAI, Google og Anthropic) og offentliggør både metode og materialer, så andre kan gentage testen.
| Måling (1Password) | Før klare sikkerhedsregler | Efter klare sikkerhedsregler |
|---|---|---|
| Kritiske fejl (på tværs af testkørsler) | 287 | 10 |
Hvad betyder det for danske virksomheder?
Mange danske virksomheder og kommuner er i gang med at koble digitale assistenter til mail, kalendere, sagsbehandling og interne systemer. SCAM peger på en vigtig ledelseslæring: Kunstig intelligens kan være hjælpsom og “klog” – og samtidig handle for hurtigt i situationer, hvor en medarbejder normalt ville stoppe op og dobbelttjekke.
Det gør sikkerhedsrammer og godkendelser til et ledelsesansvar – ikke kun et it-projekt.
Det kan du gøre nu
- Indfør “stop-regler”: Definér tydeligt, hvornår en digital assistent skal stoppe og bede om godkendelse (fx login, deling af adgangskoder, ændring af betalingsoplysninger).
- Giv mindst mulig adgang: Start med begrænset adgang og udvid kun, når adfærd og kontrol fungerer i praksis.
- Test før I kobler på: Brug SCAM (eller et tilsvarende testforløb) som en del af leverandørvalg og accepttest.
- Hold hemmeligheder ude af e-mail og chat: Sørg for faste arbejdsgange for deling af adgangsoplysninger (fx via adgangskodehåndtering), ikke fritekst.
Kilder
- Help Net Security (12. februar 2026): https://www.helpnetsecurity.com/2026/02/12/1password-security-comprehension-awareness-measure-scam-ai-benchmark/
- 1Password – SCAM (dokumentation og resultater): https://1password.github.io/SCAM/
- 1Password – regelsæt brugt i testen (SKILL.md): https://raw.githubusercontent.com/1Password/SCAM/main/skills/security-awareness/SKILL.md
- 1Password blog (blogforside; indlægget om SCAM er dateret 12. februar 2026 og kan findes via SCAM-siden): https://1password.com/blog/
🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.
Læs original kilde →Fandt du en fejl?