Spring til indhold
Tilbage til nyheder
Anthropic offentliggør ny forfatning for deres kunstige intelligens

Anthropic offentliggør ny forfatning for deres kunstige intelligens

kunstig intelligensGovernancePolitik/reguleringOffentlig sektor

Anthropic har opdateret det regelsæt, der styrer Claude-systemernes opførsel. Den nye forfatning erstatter en kort principliste fra 2023 med et langt mere detaljeret dokument — og virksomheden har gjort hele teksten offentligt tilgængelig.

Kort fortalt:

  • Anthropic er gået fra en kort principliste til en udførlig, forklarende forfatning for deres kunstige intelligens.
  • Forfatningen opstiller en klar prioritering: sikkerhed først, derefter etik, overholdelse af retningslinjer og til sidst hjælpsomhed.
  • Dokumentet definerer hårde grænser, som systemet aldrig må krydse — uanset hvad brugeren beder om.
  • Forfatningen bruges desuden til at skabe kunstig træningsdata, som systemet lærer af.

Fra principper til forfatning

Hvor den tidligere udgave fra 2023 var en overskuelig liste af korte principper, er den nye forfatning et langt mere detaljeret dokument. Det forklarer ikke blot, hvad systemet skal gøre, men også hvorfor. Formålet er at give både udviklere og offentligheden indblik i de værdier og afvejninger, der ligger bag systemets svar.

Forfatningen opstiller en rangorden med fire niveauer. Sikkerhed kommer først: systemet må aldrig udgøre en fare for mennesker. Derefter følger etiske principper, så overholdelse af Anthropics egne retningslinjer, og endelig hjælpsomhed over for brugeren. Hvis to hensyn er i konflikt, vinder det højere niveau altid.

Hårde stopklodser

Et centralt element er de absolutte grænser, som systemet ikke må krydse under nogen omstændigheder. Forfatningen nævner specifikt vejledning i fremstilling af masseødelæggelsesvåben, angreb på kritisk infrastruktur, udvikling af cybervåben og produktion af seksuelt overgrebsmateriale mod børn. Disse grænser gælder uanset kontekst og kan ikke omgås af brugerens instruktioner.

Hvad betyder det for danske organisationer?

At forfatningen er offentlig, er et skridt mod større gennemsigtighed. Danske virksomheder og offentlige institutioner, der bruger eller overvejer løsninger baseret på kunstig intelligens, kan nu læse præcis, hvilke værdier leverandøren har bygget ind i systemet.

Men gennemsigtighed er ikke det samme som garanti. En offentlig forfatning fortæller, hvad leverandøren sigter efter — ikke nødvendigvis, hvad systemet gør i alle situationer. Danske organisationer bør derfor stadig teste løsningerne i egen kontekst og stille konkrete kontraktkrav til leverandøren om sikkerhed, databehandling og ansvar.

Pas på denne faldgrube En offentlig forfatning kan skabe en falsk tryghed. Dokumentet beskriver intentionen, men det fritager ikke din organisation fra at lave egne tests og stille krav i leverandøraftalen.

Det kan du gøre nu

  1. Læs Anthropics forfatning og vurder, om prioriteringerne matcher jeres organisations krav til kunstig intelligens.
  2. Brug dokumentet som udgangspunkt, når I stiller krav til leverandører — spørg fx om de har tilsvarende offentlige retningslinjer.
  3. Test altid løsninger i jeres egen kontekst, uanset hvad leverandørens retningslinjer lover.

Kilder

🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.

Læs original kilde →

Fandt du en fejl?