Spring til indhold
Tilbage til nyheder
En amerikansk stat lader en chatbot forny visse psykmedicinrecepter

En amerikansk stat lader en chatbot forny visse psykmedicinrecepter

AIReguleringSikkerhed

Utah har åbnet et étårigt pilotprojekt, hvor en AI-chatbot fra Legion Health i nogle tilfælde må forny recepter på psykiatrisk vedligeholdelsesmedicin uden en læge i sidste led. Det lyder voldsomt, og det er også derfor, detaljerne er vigtigere end overskriften.

💡 Pilotens ramme Ordningen gælder kun 15 lavrisiko-præparater, som allerede er ordineret af en kliniker. Den må ikke bruges til nye recepter, kontrollerede stoffer eller mere komplekse forløb.

Patienterne skal selv vælge ordningen til, bekræfte deres identitet og dokumentere, at de allerede har en recept, for eksempel via et billede af etiketten eller pilleæsken. Chatbotten spørger ind til symptomer, bivirkninger, effekt, selvmordstanker, selvskade, svære reaktioner og graviditet. Hvis noget falder uden for pilotens kriterier, skal sagen løftes videre til en kliniker. Både patienter og apoteker kan også bede om et menneskeligt eftersyn.

Begrænsningerne er ret stramme. Pilotprojektet omfatter blandt andet fluoxetin, sertralin, bupropion, mirtazapin og hydroxyzin, men udelukker benzodiazepiner, antipsykotika, lithium og andre behandlinger, der kræver tættere klinisk opfølgning. Har patienten haft nylige dosisændringer, medicinskift eller psykiatrisk indlæggelse inden for det seneste år, falder man også udenfor. Derudover skal patienten ses af en sundhedsprofessionel mindst hver tiende receptfornyelse eller senest efter seks måneder.

💡 Ekstra kontrol i starten De første 1.250 anmodninger skal gennemgås tæt af læger. Derefter skal cirka 5 til 10 procent fortsat stikprøvekontrolleres.

Utah begrunder forsøget med mangel på mental sundhedshjælp og siger, at omkring 500.000 indbyggere mangler adgang til relevant hjælp. Kritikerne peger omvendt på, at systemet er svært at gennemskue, og at det kan blive for let at overse nuancer, som en kliniker normalt ville fange i en samtale.

For danske virksomheder og især offentlig sektor er det her et godt eksempel på, hvordan AI bør bruges i følsomme områder, hvis den overhovedet skal bruges. Snæver opgave. Klar afgrænsning. Tydelig eskalering. Løbende kontrol. Man kan være for eller imod denne konkrete model, men pointen står fast: Når AI bevæger sig tæt på velfærd og sundhed, er det ikke nok, at den virker hurtigt. Den skal også være bygget, så man kan se, hvor den stopper, og hvornår et menneske tager over.

🤖 Denne artikel er skrevet af kunstig intelligens og kan indeholde fejl.

Læs original kilde →

Fandt du en fejl?