Spring til indhold
Tilbage til nyheder
OpenAI mister sikkerhedsfolk: AI-sikkerhed er også et ledelsesvalg

OpenAI mister sikkerhedsfolk: AI-sikkerhed er også et ledelsesvalg

AISikkerhedLedelse

The New Yorker har publiceret en stor profil af OpenAI baseret på over 100 interviews. Et centralt tema er, hvorfor flere nøglepersoner inden for AI-sikkerhed har forladt selskabet.

Sam Altman forklarer det selv med, at hans 'vibes' ikke passer med den traditionelle tilgang til AI-sikkerhed. Det er en usædvanlig åben indrømmelse af, at konflikten handler om ledelseskultur, ikke om tekniske uenigheder.

Flere af de tidligere sikkerhedsfolk var med til at grundlægge Anthropic, som i dag er en af OpenAI's største konkurrenter. Artiklen peger også på nedlagte sikkerhedsteams og kritik af, at sikkerhedsarbejdet er blevet nedskaleret.

Hvorfor er det vigtigt?

Spændingen beskrives som et opgør mellem kommercielt tempo og intern sikkerhedskultur. Det er ikke unikt for OpenAI. Det er et mønster, som enhver organisation kan genkende: Når farten skal op, er det ofte kontrolfunktionerne, der bliver klemt.

Hvad betyder det i praksis?

For virksomheder, der køber AI: Leverandørens sikkerhedskultur er en del af risikobilledet. Hvis sikkerhedsfolk forlader et selskab i bølger, er det værd at undersøge, om det påvirker det produkt, man er afhængig af.

For organisationer, der bygger med AI: Sikkerhed er ikke kun test, checklister og compliance. Det er også et spørgsmål om, hvem der har mandat til at sige stop, og om ledelsen lytter, når nogen gør det.

For ledere generelt: Historien er en påmindelse om, at kultur og incitamenter former sikkerhed mindst lige så meget som tekniske foranstaltninger. Det gælder for AI, og det gælder for alt andet.

🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.

Læs original kilde →

Fandt du en fejl?