Spring til indhold
Tilbage til nyheder
175.000 installationer af “lokal” kunstig intelligens er åbne på nettet – og det kan ramme danske organisationer

175.000 installationer af “lokal” kunstig intelligens er åbne på nettet – og det kan ramme danske organisationer

kunstig intelligensit-sikkerheddriftcompliance

Kort fortalt

  • SentinelOne og Censys har identificeret 175.108 offentligt tilgængelige Ollama-installationer i 130 lande
  • Kortlægningen bygger på 293 dages kontinuerlig scanning og 7,23 mio. observationer (29. januar 2026)
  • En mere “fast” gruppe på ca. 23.000 installationer ser ud til at stå åbne over længere tid
  • Omkring 48 % annoncerer funktioner, der kan udføre handlinger i andre systemer (“værktøjskald”)
  • Pillar Security beskriver samtidig konkrete forsøg på at finde og udnytte åbne installationer

Ollama er et populært værktøj til at køre sprogmodeller (kunstig intelligens, der kan forstå og generere tekst) på egen computer eller server. Det bruges ofte, fordi man gerne vil holde data “inden for egne vægge” i stedet for at sende dem til eksterne tjenester.

Ifølge SentinelLABS (SentinelOnes forskningsenhed) og Censys står mange Ollama-installationer imidlertid åbne for internettet. Som udgangspunkt er Ollama tænkt til lokal brug, men hvis man ændrer opsætningen, kan den blive tilgængelig udefra – og typisk uden indbygget login.

Det, der gør fundet ekstra relevant for danske virksomheder og kommuner, er udviklingen i, hvordan “lokal kunstig intelligens” bruges: Det starter ofte som et it-eksperiment, men ender hurtigt med at blive koblet på dokumenter, kundesystemer og fagsystemer. Og når først der er integrationer, kan en åben installation være mere end “bare” misbrugt regnekraft.

RisikoHvad betyder det i praksis?
DatalækTekster, dokumentuddrag eller svar kan afsløre følsomme oplysninger
Misbrug af regnekraftAndre kan bruge jeres server til deres egne opgaver – I betaler kapaciteten
Adgang til interne systemerHvis der er koblet værktøjer/integrationer på, kan der udløses handlinger i andre systemer

Det kan du gøre nu

  1. Få overblik: Spørg IT/leverandør om Ollama (eller lignende lokal kunstig intelligens) kører nogen steder – også som “sideprojekter”.
  2. Tjek om noget er åbent udefra: Bed om en ekstern scanning af jeres offentlige IP-adresser for kendte “åbne døre”.
  3. Begræns adgang: Hvis løsningen skal deles internt, så kræv VPN eller kun intern adgang (ikke offentlig internetadgang).
  4. Sæt adgangskontrol foran: Brug et mellemled med login og rettigheder, hvis adgang på tværs af netværk er nødvendig.
  5. Gennemgå integrationer: Kortlæg om løsningen kan udføre handlinger i andre systemer (“værktøjskald”) – og slå det fra, hvis det ikke er nødvendigt.
  6. Overvåg som en rigtig server: Logning, alarmer og opdateringer – på samme niveau som andre driftskritiske systemer.
  7. Lav en enkel politik: Hvem må sætte lokal kunstig intelligens op, og hvilke minimumskrav gælder?

Kilder

🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.

Læs original kilde →

Fandt du en fejl?