
AI kan beskrive et billede, du aldrig har sendt
En ny Stanford-undersøgelse rammer et problem, som mange organisationer undervurderer: multimodale AI-modeller kan opføre sig, som om de har set et billede, selv når der slet ikke er sendt et billede med. Ifølge The Decoder gælder det blandt andet GPT-5, Gemini 3 Pro og Claude Opus 4.5. Modellerne leverer detaljerede billedbeskrivelser og kan endda foreslå medicinske vurderinger, selv når inputtet mangler. Samtidig viser studiet, at de gængse benchmarks ofte skjuler problemet i stedet for at afsløre det.
💡 Kernen i fejlen Modellen svarer ud fra kontekst og sandsynlighed, ikke ud fra en faktisk billedfil. Brugeren får et svar, der lyder sikkert, selv om systemet ikke har set noget.
Det er ikke en akademisk detalje. I dansk praksis dukker samme mønster op, når man bygger løsninger til dokumentbehandling, skadesanmeldelser, byggesager, sundhed og borgerservice. Hvis en borger tror, at et foto eller et bilag er uploadet, men uploaden fejler, kan systemet fortsætte, som om alt er i orden. Det giver et svar på et falsk grundlag. Det er ekstra alvorligt i sager, hvor medarbejdere har travlt og stoler på, at "vision" betyder, at modellen faktisk har set materialet.
💡 Hvor risikoen bliver konkret Kilden peger på, at modellerne også kan give medicinske vurderinger uden billede. Det er et klart tegn på, at fejlen ikke kun handler om billedtekster, men om beslutningsstøtte på et forkert grundlag.
Det rigtige svar er ikke at droppe multimodale modeller. Det rigtige svar er at bygge dem, så de fejler tydeligt. Hvis en fil mangler, skal systemet sige det direkte og stoppe processen. Der skal logges, om en fil faktisk er modtaget, og medarbejderen skal kunne se præcis det input, modellen arbejder på. En løsning må ikke falde tilbage til ren tekstanalyse, uden at det fremgår klart. Og i sager med sundhed, jura eller myndighedsafgørelser bør der være et krav om menneskelig kontrol, før et svar går videre.
Det her er en påmindelse om, at AI-sikkerhed ikke kun handler om datalæk og prompt injection. Den handler også om helt almindelig inputvalidering. Når en model kan lyde overbevisende uden at have set det materiale, den taler om, er den største risiko ikke science fiction. Den største risiko er, at systemet passerer gennem drift, support og sagsbehandling uden at nogen opdager, at grundlaget mangler.
🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.
Læs original kilde →Fandt du en fejl?