
Når 110 falske krigsvideoer slår ægte data af banen
The New York Times har identificeret mere end 110 AI-genererede falske billeder og videoer om krigen mellem USA, Israel og Iran i løbet af de første to uger af konflikten. Ifølge analysefirmaet Cyabra nåede materialet ud til millioner af brugere, og hovedparten af de falske opslag støttede iransk propaganda. Det er i sig selv alvorligt. Det bliver værre af, at de kilder, der normalt bruges til at aflive den slags, er blevet langsommere og mindre tilgængelige.
⚠️ Fakta Over 110 falske billeder og videoer blev registreret på to uger, mens forsinkelsen på højopløselige satellitbilleder steg fra fire dage til to uger.
Planet Labs har ifølge AFP forlænget forsinkelsen på højopløselige billeder af regionen fra fire dage til to uger. Vantor, tidligere Maxar, blokerer også billeder af amerikanske og allierede baser. Når ægte data kommer senere, får de falske mere tid til at sætte sig. Det er en enkel mekanik, men den har store konsekvenser. AI-fup fylder ikke kun tomrummet på sociale medier. Det flytter også presset over på redaktioner, myndigheder og analysefunktioner, som nu skal bevise, at noget ikke er sket, før de kan forklare, hvad der faktisk er sket.
Historien er også relevant uden for krigszoner. Tyske medier som Der Spiegel, Zeit og Suddeutsche Zeitung blev ramt af AI-genererede billeder, der var blevet ført ind i nyhedskæden via et iransk agenturnetværk. Det viser, at problemet ikke stopper ved en bestemt platform. Det kan glide hele vejen gennem bureauer, billeddatabaser og redaktionelle arbejdsgange, hvis mærkning og kontrol er for svag.
For danske myndigheder, beredskaber og virksomheder med samfundskritisk kommunikation er læringen ret hård. Man kan ikke længere nøjes med kildekritik som en kompetence hos enkelte medarbejdere. Verifikation skal bygges ind i arbejdsgangen, med klare regler for billedbrug, hurtig eskalering og adgang til eksterne tjek, når noget ser for godt eller for dramatisk ud. Ellers bliver tempoet på platformene den reelle redaktør.
Det nye her er altså ikke bare, at billeder kan forfalskes. Det nye er kombinationen af billige generative værktøjer, millioner af visninger og langsommere adgang til uafhængig bekræftelse. Når den cocktail først er på plads, bliver misinformation ikke kun et kommunikationsproblem. Det bliver et sikkerhedsproblem.
🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.
Læs original kilde →Fandt du en fejl?