
Når AI-søgning bliver en datarisiko
Perplexity er blevet mødt af et foreslået gruppesøgsmål i føderal domstol i San Francisco. Ifølge Bloomberg, gengivet af The Decoder, anklages virksomheden for at dele brugernes chats med Meta og Google via sporingsværktøjer på websitet. Det alvorlige punkt er, at klagen også hævder, at data blev sendt videre, selv når brugeren valgte Incognito.
💡 Sagens kerne Klagen er indleveret som et gruppesøgsmål i Northern District of California. Ifølge Bloomberg hævder sagsøgeren, at Meta og Google kunne få adgang til hele chatforløb. Perplexity har sagt, at virksomheden ikke er blevet forkyndt i en sag, der matcher beskrivelsen.
Det her er ikke en dom. Det er en anklage, og den skal prøves i retten. Men sagen rammer lige ind i et problem, mange danske virksomheder og myndigheder stadig tager for let på. Når medarbejdere bruger en AI-assistent til research, udkast eller sparring, skriver de ofte ting ind, som de aldrig ville lægge i et åbent dokument. Budgetter, kontraktspor, HR-sager, kundecases og interne vurderinger glider hurtigt ind i promptfeltet, fordi værktøjet føles som en privat arbejdssamtale.
Hvis den oplevelse ikke holder, falder tilliden hurtigt. Og for organisationer, der arbejder under GDPR, NIS2-krav eller almindelige krav til fortrolighed, er det ikke nok at stole på markedsføring om privatliv. Man skal vide, hvilke trackere der kører på websitet, om leverandøren bruger data til analyse eller annoncering, og om der faktisk findes en teknisk barriere mellem brugerens input og tredjepartsværktøjer.
For danske it-chefer er den praktiske lære enkel. Behandl AI-chat som en ekstern tjeneste, indtil I har dokumentation for noget andet. Det betyder klare regler for, hvad medarbejdere må skrive ind. Det betyder også en gennemgang af leverandørens databehandleraftale, logning, retention, telemetry og eventuelle tredjeparts-SDK'er. Hvis en leverandør ikke kan forklare det uden udenomssnak, er det et dårligt tegn.
Offentlig sektor bør især være opmærksom. Sager, borgervendte spørgsmål og personfølsomme oplysninger hører ikke hjemme i værktøjer, hvor dataflowet er uklart. Her er det bedre at starte med lukkede miljøer, begrænsede pilotprojekter og testdata.
Mandag morgen er opgaven ikke at forbyde al AI. Opgaven er at skelne mellem nyttige værktøjer og værktøjer, der skubber risikoen over på brugeren. Den forskel bliver kun vigtigere herfra.
🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.
Læs original kilde →Fandt du en fejl?