Tør du give ChatGPT dine sundhedsdata?

ChatGPTs nye sundhedsportal lover personlige svar – men kritikere advarer mod at overlade dit helbred og dine mest følsomme data til en AI, der hverken er læge eller terapeut.

OpenAI er på vej med en ny, dedikeret sundhedssektion i ChatGPT. Ambitionen er klar: Brugerne skal kunne få mere personlige svar om sundhed og trivsel ved at koble chatbotten sammen med sundhedsapps og i visse tilfælde endda egne journaloplysninger. Men selv om idéen lyder tillokkende, er der god grund til at træde varsomt.

Den nye funktion, som går under navnet ChatGPT Health, er ifølge OpenAI stadig i testfase og rulles kun ud i udvalgte regioner – i første omgang ikke i Europa. Tanken er, at ChatGPT i et separat “rum” kan analysere data fra eksempelvis fitness- og wellnessapps og bruge dem til at give mere målrettede svar på spørgsmål om kost, søvn, motion og generel sundhed.

ARTIKLEN FORTSÆTTER EFTER ANNONCEN

 

OpenAI lover samtidig, at samtaler i sundhedsportalen får ekstra privatlivsbeskyttelse, og at indholdet ikke bliver brugt til at træne selskabets grundlæggende AI-modeller. Det er et vigtigt løfte i en tid, hvor tillid og databeskyttelse er blevet afgørende konkurrenceparametre.

Ikke læge – og bliver det heller ikke

Men uanset de tekniske sikkerhedsforanstaltninger understreger OpenAI selv, at ChatGPT Health ikke er beregnet til diagnose eller behandling. Det er mere end blot en juridisk fodnote. Kunstig intelligens kan stadig tage fejl – også på måder, der kan være direkte farlige, hvis svarene bliver opfattet som lægefaglige råd.

Sundhedseksperter har længe advaret mod at bruge chatbots som erstatning for professionel rådgivning. AI kan fremstå selvsikker og overbevisende, selv når informationen er upræcis eller forkert. I sundhedssammenhæng er det en kombination, der kan få alvorlige konsekvenser.

ARTIKLEN FORTSÆTTER EFTER ANNONCEN

 

I en Guardianartikel har psykiatere og terapeuter tidligere advaret om, at AI-chatbots kan forstærke angst, selvdiagnose, afhængighed og vrangforestillinger hos sårbare personer — og at de ikke bør erstatte professionel mental sundhedsstøtte. Dr. Lisa Morrison Coulthard fra British Association for Counselling and Psychotherapy sagde i den forbindelse, at manglen på sikker kontekst og menneskelig forståelse kan have ”potentielt farlige konsekvenser”.

Dine mest følsomme data

Derudover rejser den nye portal et mere principielt spørgsmål: Hvor klogt er det at dele sine mest private helbredsoplysninger med en kommerciel AI-platform? Selv med løfter om datasikkerhed er sundhedsdata blandt de mest følsomme informationer, man kan aflevere digitalt – og de kan i værste fald misbruges eller lækkes.

ARTIKLEN FORTSÆTTER EFTER ANNONCEN

 

Kritikere peger også på, at OpenAI tidligere er blevet mødt med kritik for ikke i tilstrækkelig grad at have taget højde for de psykologiske konsekvenser af teknologien. Det gør skepsissen større, når selskabet nu bevæger sig ind på et område, hvor fejl kan få meget personlige og alvorlige følger.

Back to top button

Vi lever af annoncer

Hejsa kære læser. Vi kan se, at du bruger en Adblocker. Det er vi superkede af. Som et lille medie er vi afhængige af annoncekroner for at kunne levere gratis indhold til dig. Vi vil derfor bede dig om at lukke for din AdBlocker eller i det mindste give vores site lov til at vise bannere, hvis du gerne vil læse vores indhold. Med venlig hilsen iNPUT.