
Rapport advarer: Deepfakes og falske ID’er gør svindel billigere
Svindel bliver både billigere og mere troværdig, når kriminelle bruger kunstig intelligens til at masseproducere falske identiteter og manipulere lyd og video. Det er hovedbudskabet i Plaids “Fintech Predictions” for 2026. Plaid har offentliggjort hovedpointerne på sin side, mens den fulde rapport kræver tilmelding.
Advarslen flugter med nyere europæiske vurderinger: Europol beskriver, hvordan deepfakes allerede bruges til at efterligne ledere i telefonopkald, og at der findes markeder for kunstig intelligens-skabte falske ID-dokumenter. ENISA (EU’s cybersikkerhedsmyndighed) peger samtidig på, at social manipulation via beskeder og opkald fortsat er blandt de mest udbredte angrebsformer i finanssektoren.
Kort fortalt
- Deepfakes (realistisk falsk lyd og video) og falske ID’er kan skaleres hurtigt med kunstig intelligens.
- Truslen rammer ikke kun banker: økonomi, HR, kundeservice og salg er oplagte mål i danske virksomheder.
- Konklusionen er praktisk: Stol ikke på stemme og video alene – kombiner teknologi med faste procedurer.
Ikke kun et problem for banker
Mange forbinder identitetskontrol med KYC (kundekendskabsprocedurer – de tjek man laver for at sikre, at en kunde er den, vedkommende udgiver sig for). Men i praksis handler det også om leverandørskift, ændringer af bankkonti, hastebetalinger og “kan du lige…”-anmodninger til medarbejdere.
Europol fremhæver, at deepfakes kan bruges til at efterligne stemmer i fx direktør- og økonomichef-svindel. EBA (den europæiske banktilsynsmyndighed) understreger i sine retningslinjer for fjern-onboarding, at automatiske forløb bør have flere sikkerhedslag – herunder liveness-kontrol (tjek af at der sidder en levende person foran kameraet) – netop fordi falske dokumenter og manipuleret video er en voksende risiko.
| Angreb i praksis | Lavpraktisk modtræk |
|---|---|
| “Direktøren” ringer og presser på for en hurtig betaling | Ring tilbage til et kendt nummer + kræv to-personers godkendelse |
| Video-/selfie-verifikation kan manipuleres | Brug liveness-kontrol og stikprøver ved høj risiko |
| Falske ID-dokumenter ved oprettelser | Kombinér dokumenttjek, mønstergenkendelse og manuel gennemgang af afvigelser |
Det kan du gøre nu
- Indfør en tokanals-regel ved ændring af betalingsoplysninger og hastebetalinger (fx opkald + intern chat eller skriftlig bekræftelse).
- Brug to-personers godkendelse for store beløb og ændringer af leverandørers bankkonti.
- Træn de udsatte funktioner (økonomi, HR, kundeservice) i at håndtere pres, hast og “kendte stemmer”.
- Gennemgå jeres digitale onboarding: Er der liveness-kontrol og klare regler for, hvornår en sag skal løftes til manuel kontrol?
- Lav en kort intern øvelse: Hvor langt kan en “falsk leder”-henvendelse komme i jeres processer, før den stoppes?
Kilder
- Plaid: Fintech Predictions 2026 (landingsside) – https://plaid.com/fintech-predictions-2026-report/
- Plaid: Event/replay – https://plaid.com/events/fintech-predictions-2026/
- Europol: Internet Organised Crime Threat Assessment (IOCTA) 2024 (PDF) – https://www.europol.europa.eu/cms/sites/default/files/documents/IOCTA%202024%20-%20EN_0.pdf
- EBA: Guidelines on the use of Remote Customer Onboarding Solutions (EBA/GL/2022/15) (PDF) – https://www.eba.europa.eu/sites/default/files/document_library/Publications/Guidelines/2022/EBA-GL-2022-15%20GL%20on%20remote%20customer%20onboarding/1043884/Guidelines%20on%20the%20use%20of%20Remote%20Customer%20Onboarding%20Solutions.pdf
- ENISA: Threat Landscape: Finance Sector – https://www.enisa.europa.eu/publications/enisa-threat-landscape-finance-sector
🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.
Læs original kilde →Fandt du en fejl?