Spring til indhold
Tilbage til nyheder
Når finansielt tilsyn bliver et dataarbejde, ikke bare et sagsarbejde

Når finansielt tilsyn bliver et dataarbejde, ikke bare et sagsarbejde

ReguleringSikkerhedBusiness

Det britiske finanstilsyn FCA tester Palantirs Foundry i et tre måneders pilotforløb, der koster over 30.000 pund om ugen. Målet er at finde mønstre i interne data, som kan pege på hvidvask, insiderhandel og svindel på tværs af de 42.000 finansvirksomheder, myndigheden fører tilsyn med. Det lyder som endnu en stor offentlig AI-aftale. Men det interessante er ikke navnet Palantir. Det interessante er, hvordan FCA prøver at bruge AI på følsomme data uden at afgive kontrollen over dem.

💡 Det konkrete setup FCA siger, at piloten kører i tre måneder, koster over 30.000 pund om ugen og arbejder direkte på myndighedens interne data lake. Leverandøren skal agere databehandler, mens FCA selv beholder krypteringsnøglerne til de mest følsomme filer.

Det er en vigtig skelnen for danske myndigheder og regulerede virksomheder. Mange AI-projekter går skævt, fordi man taler meget om analyse og meget lidt om grænserne rundt om analysen. Her er rammen mere håndfast. Hosting og lagring skal blive i Storbritannien. Leverandøren må ikke bruge materialet til at træne egne produkter. Når piloten slutter, skal data slettes. Og det intellektuelle output fra analysen tilhører regulatoren.

Det er præcis den slags vilkår, som gør forskellen mellem et spændende pilotprojekt og noget, der kan forsvares i drift. For danske organisationer er læringen ikke, at alle bør købe Palantir. Læringen er, at AI på følsomme sags- og tilsynsdata kræver et kontraktligt design, der er lige så skarpt som selve modellen. Hvem holder nøglerne? Hvor ligger data? Hvem må bruge dem bagefter? Hvad bliver slettet hvornår?

Der er også en mere jordnær pointe. FCA bruger ikke piloten til pynt. Den er koblet til et konkret problem: at finde mistænkelige mønstre i store mængder ustruktureret materiale, som mennesker har svært ved at gennemgå hurtigt nok. Det er præcis den type opgave, hvor AI kan være nyttig, hvis datagrænserne er på plads.

Mandag morgen kan danske myndigheder, banker og større virksomheder tage én enkel øvelse: gennemgå næste AI-indkøb med fokus på databehandlerrolle, nøglekontrol, sletning og træningsforbud. Hvis de punkter er uklare, er projektet ikke klar, uanset hvor skarp demoen ser ud.

🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.

Læs original kilde →

Fandt du en fejl?