Spring til indhold
Tilbage til nyheder

OpenAI, Anthropic og Google går sammen mod uautoriseret kopiering af AI-modeller

AISikkerhedBusiness

OpenAI, Anthropic og Google er begyndt at samarbejde mod uautoriseret kopiering af deres AI-modeller fra kinesiske konkurrenter. Samarbejdet sker gennem Frontier Model Forum, som blev grundlagt i 2023.

Formålet er at opdage såkaldt adversarial distillation. Det er en metode, hvor output fra en eksisterende model bruges til at træne en billigere kopi. Stanfords Alpaca-projekt nævnes som et tidligt eksempel, der viste, at metoden kunne lade sig gøre.

Milliarder i tabt omsætning

Ifølge Bloomberg vurderer amerikanske myndigheder, at adversarial distillation koster amerikanske AI-laboratorier milliarder af dollars i tabt omsætning hvert år. OpenAI advarede Kongressen i februar om, at Deepseek brugte stadig mere avancerede metoder til at udtrække data fra amerikanske modeller.

Anthropic pegede på Deepseek, Moonshot og Minimax som aktører, der er involveret i praksissen.

Informationsdeling som i cybersikkerhed

Artiklen sammenligner tilgangen med cybersikkerhedsbranchen, hvor virksomheder rutinemæssigt deler angrebsdata med hinanden. Det er en interessant parallel, fordi det viser, at modelbeskyttelse nu behandles som et sikkerhedsproblem, ikke bare en juridisk tvist.

Når tre konkurrenter vælger at dele følsom information om angreb på deres kerneprodukt, er det et tegn på, at problemet er stort nok til at opveje det konkurrencemæssige ubehag.

Dansk perspektiv

For danske virksomheder, der bruger AI-modeller fra disse selskaber, handler det om at forstå den baggrund, modellerne udvikles i. Distillation kan betyde, at billigere alternativer dukker op, men uden de samme garantier om sikkerhed, opdateringer og support. Valget af AI-leverandør er ikke kun et spørgsmål om pris og ydeevne. Det handler også om, hvor teknologien kommer fra, og hvilke betingelser den er udviklet under.

🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.

Læs original kilde →

Fandt du en fejl?