Spring til indhold
Tilbage til nyheder
Seks nye agent-faelder fra Google viser hvor AI-projekter gaar galt

Seks nye agent-faelder fra Google viser hvor AI-projekter gaar galt

AISikkerhed

Hvis din organisation er paa vej mod AI-agenter, er den vigtigste nyhed i dag ikke endnu en model eller en ny demo. Det er en sikkerhedsadvarsel. Google Deepmind beskriver seks forskellige "faelder", som kan fae autonome agenter til at handle forkert, laekke data eller tage daarlige beslutninger. Det rammer direkte ned i danske virksomheder og offentlige organisationer, der er ved at koble AI til mail, dokumenter, sager og eksterne systemer.

💡 Det vigtigste fra studiet Google Deepmind peger paa seks angrebsflader: perception, reasoning, memory, action, multi-agent dynamics og menneskelig supervision.

Det mest haandgribelige problem er, at agenter laeser andet end mennesker. En hjemmeside kan gemme instrukser i HTML-kommentarer, CSS, billedmetadata eller tilgaengelighedsfelter. Brugeren ser dem ikke, men agenten kan stadig laese dem og rette sin adfaerd efter dem. Deepmind beskriver ogsaa semantiske faelder, hvor sproget er vinklet saa kraftigt, at modellen drages mod en forkert konklusion.

Derfra bliver det mere alvorligt. Hvis en agent bruger langtidshukommelse eller RAG, kan faa forgiftede dokumenter vaere nok til at skubbe svarene i en bestemt retning. Deepmind henviser ogsaa til et eksempel, hvor en manipuleret mail fik en agent i Microsoft 365 Copilot til at gaa forbi sikkerhedsfiltre og dele privilegeret kontekst. I den kategori, som handler om sub-agenter, ligger succesraten ifoelge en citeret undersoegelse mellem 58 og 90 procent.

💡 Hvad danske teams boer goere nu Behandl web, mail og dokumenter som ubetroede input. Giv agenter mindst mulige rettigheder. Kraev menneskelig godkendelse foer betalinger, udsendelser eller sagsaendringer.

Den praktiske lektie er enkel: sikkerhed for agenter kan ikke reduceres til prompt injection alene. Hele informationsmiljoeet skal vurderes som en mulig angrebsflade. Det gaelder saerligt i kommuner, styrelser og virksomheder, hvor AI kobles til journalsystemer, indkoeb, support eller kontraktarbejde.

Mandag morgen-boerden er derfor ikke at skrive en flot AI-strategi. Det er at lave en konkret testpakke. Proev en skjult instruktion i et dokument. Proev en manipuleret mail. Proev et falsk bilag i en RAG-base. Hvis agenten faar lov at handle, foer den er testet mod den slags, er det ikke en pilot. Saa er det bare produktion uden sele.

🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.

Læs original kilde →

Fandt du en fejl?