Spring til indhold
Tilbage til nyheder
OpenAI dropper populær model – derfor bør du tænke over leverandørrisiko nu

OpenAI dropper populær model – derfor bør du tænke over leverandørrisiko nu

kunstig intelligensleverandørstyringrisikostyringgovernance

Kort fortalt

  • OpenAI udfaser sprogmodellen GPT-4o i ChatGPT fra 13. februar 2026.
  • Ifølge OpenAI står GPT-4o for kun ca. 0,1 % af den daglige brug, fordi de fleste brugere allerede er rykket til den nyere GPT-5.2.
  • Virksomheder med ChatGPT Business, Enterprise eller Edu kan stadig bruge GPT-4o i deres tilpassede chatbots frem til 3. april 2026.
  • Wall Street Journal nævner mulige sikkerheds- og misbrugsbekymringer som medvirkende årsag, men OpenAI har ikke selv bekræftet dette.

Brødtekst

Når en leverandør af kunstig intelligens fjerner et produkt, kan det mærkes fra den ene dag til den anden. Det er præcis det scenarie, danske virksomheder og offentlige organisationer nu skal forholde sig til.

OpenAI har meddelt, at GPT-4o – den model, mange kender som standarden i ChatGPT – bliver trukket tilbage fra 13. februar 2026. Begrundelsen er enkel: brugen er faldet til omkring 0,1 % af den daglige trafik, fordi langt de fleste er skiftet til den nyere GPT-5.2.

Hvem får lidt mere tid? Organisationer på de betalte erhvervsabonnementer (Business, Enterprise og Edu) kan fortsat bruge GPT-4o i deres tilpassede chatbots – altså de skræddersyede løsninger, man selv bygger inde i ChatGPT – frem til 3. april 2026.

BrugertypeGPT-4o tilgængelig til
Gratis og Plus13. februar 2026
Business / Enterprise / Edu (tilpassede chatbots)3. april 2026

Wall Street Journal har rapporteret, at sikkerheds- og misbrugsbekymringer også kan spille ind i beslutningen. Det er dog vigtigt at understrege, at OpenAI ikke selv har bekræftet dette som årsag.

Hvorfor er det vigtigt for dig? Sagen illustrerer en grundlæggende risiko ved at bygge forretningskritiske arbejdsgange oven på tjenester med kunstig intelligens: vilkårene kan ændre sig hurtigt og uden forhandling. En model, der virker i dag, kan være væk i morgen. Det gælder uanset om du er en kommune med en borgervendt chatløsning eller en mindre virksomhed, der har automatiseret kundeservice.

Pointen er ikke, at man skal undgå kunstig intelligens. Pointen er, at man skal behandle det som enhver anden kritisk leverance – med opmærksomhed på afhængighed, varsling og plan B.

Det kan du gøre nu

  1. Kortlæg jeres afhængigheder: Find ud af præcis hvilke arbejdsgange, chatbots og løsninger der i dag kører på GPT-4o.
  2. Tag dialogen med jeres leverandør: Spørg direkte, hvad deres plan er, og hvornår de skifter model – uanset om leverandøren er OpenAI selv eller en dansk forhandler.
  3. Test den nye model i praksis: Før I bliver tvunget til at skifte, bør I afprøve GPT-5.2 på jeres egne opgaver og tjekke, om kvaliteten holder.
  4. Lav en manuel nødprocedure: Beskriv hvordan opgaven løses, hvis tjenesten pludselig er utilgængelig – selv midlertidigt.
  5. Stil kontraktkrav om varsling og dataportabilitet: Næste gang I forhandler aftale, så kræv skriftlig varsling ved modelændringer og ret til at flytte jeres data.
  6. Sæt leverandørrisiko på risikostyringskortet: Kunstig intelligens hører hjemme i jeres samlede risikovurdering på linje med andre kritiske systemer.
  7. Fasthold det menneskelige kvalitetsansvar: Uanset hvilken model der kører under motorhjelmen, er det jeres organisation, der står på mål for resultaterne.

Kilder

🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.

Læs original kilde →

Fandt du en fejl?