Spring til indhold
Tilbage til nyheder
Nu rammer ophavsretskampen også opslagsværkerne

Nu rammer ophavsretskampen også opslagsværkerne

AIReguleringBusiness

Slagsmålet om træningsdata er rykket et vigtigt skridt videre. Encyclopedia Britannica og Merriam-Webster har sagsøgt OpenAI og siger, at næsten 100.000 artikler er blevet brugt uden tilladelse til træning og i produkter, der konkurrerer direkte med forlagenes eget indhold. Det er ikke bare endnu en amerikansk retssag. Det er et signal om, at striden om data, citater og ansvar nu rammer de kilder, mange stadig forbinder med troværdighed og kvalitet.

💡 Kernen i søgsmålet

Britannica siger, at OpenAI både har brugt ophavsretligt beskyttet indhold til modeltræning og gengivet indhold i svar og RAG-forløb.

Søgsmålet handler også om fejlagtige svar, som ifølge klagen er blevet tillagt Britannica-navnet.

Den juridiske linje er stadig uklar, så sagen kan få betydning langt ud over de to parter.

Det væsentlige her er ikke kun, om OpenAI taber eller vinder. Det væsentlige er, at flere dele af AI-markedet nu bliver presset til at forklare, hvor deres data kommer fra, hvad modellerne må gengive, og hvem der bærer ansvaret, når et svar både er forkert og ser autoritativt ud.

Det er en diskussion, danske virksomheder og offentlige organisationer bør følge tæt. Mange bruger allerede generativ AI til research, videnssøgning, udkast og interne vidensbaser. Hvis leverandørens model bygger på uklare datakilder, eller hvis svar blander citater og fri gendigtning uden tydelig markering, kan det hurtigt blive et problem i juridisk arbejde, kommunikation, undervisning og sagsbehandling.

Samtidig er der ingen grund til at lade som om juraen er afgjort. TechCrunch peger på, at domstolene endnu ikke har trukket en helt fast grænse for, hvornår træning på ophavsretligt materiale er lovlig. En tidligere sag mod Anthropic viste, at retten kan acceptere noget brug som transformativ, men også slå hårdt ned på ulovlig indsamling. Med andre ord: markedet mangler stadig klare spilleregler.

Det mest nyttige, man kan gøre nu, er at stille bedre spørgsmål til sine leverandører. Hvilke datakilder er brugt? Hvilke garantier gives der, hvis output krænker andres rettigheder? Kan svar spores til kilder? Og kan man begrænse brugen til egne, kontrollerede dokumenter i følsomme arbejdsgange?

Generativ AI bliver ikke sat på pause af denne sag. Men den tid, hvor man kunne nøjes med at spørge, om værktøjet var smart, er ved at være forbi. Nu handler det også om rettigheder, dokumentation og ansvar.

🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.

Læs original kilde →

Fandt du en fejl?