Spring til indhold
Tilbage til nyheder
AI-sikkerhed skal bygges til et langt dataliv

AI-sikkerhed skal bygges til et langt dataliv

SikkerhedReguleringAI

De fleste AI-projekter bliver stadig vurderet på demo, hastighed og pris. Det er forståeligt, men det er en dårlig genvej, hvis systemet skal arbejde på følsomme data i flere år. AI News samler et nyt budskab fra Utimacos e-bog "AI Quantum Resilience": sikkerhedsrisiko er stadig den største barriere for at bruge AI på egne data, og problemet stopper ikke ved prompten. Det starter tidligere, i træningsdata, nøglehåndtering og selve driftsmiljøet.

💡 Tre konkrete risici Rapporten peger på manipulerede træningsdata, modelkopiering og læk af følsomme data under både træning og inferens som de vigtigste trusler.

For danske virksomheder og myndigheder er det mest nyttige ikke den teoretiske del om kvantecomputere. Det er den praktiske konsekvens: systemer, der bygges nu, kan stadig håndtere persondata, forretningshemmeligheder og sagsmateriale om fem eller ti år. Hvis dagens kryptering bliver svagere i den periode, er det ikke nok at sige, at man kan opgradere senere. Artiklen peger på, at en overgang til kvantesikre metoder vil ramme protokoller, nøglestyring, systemintegration og ydelse, og at selve migrationen kan tage flere år.

Det gør spørgsmålet meget jordnært. Har jeres leverandør en plan for at skifte kryptografi uden at bygge hele løsningen om? Det er det, rapporten kalder crypto-agility. Hvis svaret er uklart, er AI-løsningen ikke moden nok til data med lang levetid.

💡 Det, der betyder noget i drift Artiklen vurderer, at nuværende public key-kryptografi kan blive sårbar inden for ti år. Samtidig anbefales hardware-beskyttede enklaver, hvor selv administratorer ikke kan læse de data, der behandles.

Der er også et klart signal til offentlig sektor. Når hardwaremoduler kan frigive nøgler først efter ekstern attestation, og når logning er manipulationssikker, får man en dokumentation, der faktisk kan bruges over for tilsyn og efter EU AI Act. Det er langt mere værdifuldt end endnu en generel erklæring om, at sikkerhed er vigtigt.

Det kloge næste skridt er ikke at udskyde AI-projekter. Det er at stille skarpere krav. Bed om at se, hvor nøgler opbevares, hvordan modelintegritet verificeres før deployment, og hvordan følsomme data er afskærmet under inferens. For organisationer med lange datahorisonter er sikkerhed omkring AI ikke et lag ovenpå. Det er selve fundamentet.

🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.

Læs original kilde →

Fandt du en fejl?