Spring til indhold
Tilbage til nyheder
Rapport advarer: Deepfakes og falske ID’er gør svindel billigere

Rapport advarer: Deepfakes og falske ID’er gør svindel billigere

kunstig intelligenssvindelcybersikkerhedfinansrisikostyring

Svindel bliver både billigere og mere troværdig, når kriminelle bruger kunstig intelligens til at masseproducere falske identiteter og manipulere lyd og video. Det er hovedbudskabet i Plaids “Fintech Predictions” for 2026. Plaid har offentliggjort hovedpointerne på sin side, mens den fulde rapport kræver tilmelding.

Advarslen flugter med nyere europæiske vurderinger: Europol beskriver, hvordan deepfakes allerede bruges til at efterligne ledere i telefonopkald, og at der findes markeder for kunstig intelligens-skabte falske ID-dokumenter. ENISA (EU’s cybersikkerhedsmyndighed) peger samtidig på, at social manipulation via beskeder og opkald fortsat er blandt de mest udbredte angrebsformer i finanssektoren.

Kort fortalt

  • Deepfakes (realistisk falsk lyd og video) og falske ID’er kan skaleres hurtigt med kunstig intelligens.
  • Truslen rammer ikke kun banker: økonomi, HR, kundeservice og salg er oplagte mål i danske virksomheder.
  • Konklusionen er praktisk: Stol ikke på stemme og video alene – kombiner teknologi med faste procedurer.

Ikke kun et problem for banker

Mange forbinder identitetskontrol med KYC (kundekendskabsprocedurer – de tjek man laver for at sikre, at en kunde er den, vedkommende udgiver sig for). Men i praksis handler det også om leverandørskift, ændringer af bankkonti, hastebetalinger og “kan du lige…”-anmodninger til medarbejdere.

Europol fremhæver, at deepfakes kan bruges til at efterligne stemmer i fx direktør- og økonomichef-svindel. EBA (den europæiske banktilsynsmyndighed) understreger i sine retningslinjer for fjern-onboarding, at automatiske forløb bør have flere sikkerhedslag – herunder liveness-kontrol (tjek af at der sidder en levende person foran kameraet) – netop fordi falske dokumenter og manipuleret video er en voksende risiko.

Angreb i praksisLavpraktisk modtræk
“Direktøren” ringer og presser på for en hurtig betalingRing tilbage til et kendt nummer + kræv to-personers godkendelse
Video-/selfie-verifikation kan manipuleresBrug liveness-kontrol og stikprøver ved høj risiko
Falske ID-dokumenter ved oprettelserKombinér dokumenttjek, mønstergenkendelse og manuel gennemgang af afvigelser

Det kan du gøre nu

  1. Indfør en tokanals-regel ved ændring af betalingsoplysninger og hastebetalinger (fx opkald + intern chat eller skriftlig bekræftelse).
  2. Brug to-personers godkendelse for store beløb og ændringer af leverandørers bankkonti.
  3. Træn de udsatte funktioner (økonomi, HR, kundeservice) i at håndtere pres, hast og “kendte stemmer”.
  4. Gennemgå jeres digitale onboarding: Er der liveness-kontrol og klare regler for, hvornår en sag skal løftes til manuel kontrol?
  5. Lav en kort intern øvelse: Hvor langt kan en “falsk leder”-henvendelse komme i jeres processer, før den stoppes?

Kilder

🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.

Læs original kilde →

Fandt du en fejl?