Sverige
Chat GPT

Designers och innovatörer behöver förhålla sig ansvarsfullt till Chat-GPT

Nyligen publicerade tidningen Ny teknik en artikel med rubriken "Chat GPT lika bra 'som en nyutbildad läkare' enligt ny studie". Som UX-designer med sjukvårdsbakgrund och starkt intresse av digitala arbetsredskap kände jag mig uppspelt och ville instinktivt springa på bollen – vilka spännande innovativa lösningar hade man kunnat skapa för vården? Jag tänker verktyg, flöden, effektivisering, minskat antal sjukskrivningar bland vårdpersonal, nya möjligheter för patienter etc. Spännande!

image

Men en liten röst i huvudet säger åt mig att stanna upp – ”ska du inte faktakolla detta?”, så jag läser artikeln och forskningsrapporten de refererar till för att bilda mig en grundad uppfattning innan jag börjar fundera kring vilka framtidslösningar för vården jag skulle kunna skapa tillsammans med mina kollegor på Sopra Steria.

I artikeln har de intervjuat en av forskarna som berättar hur otroligt verktyget presterat i studien, hur tydligt man ser var läkarna kan gör bäst nytta och hur man kan jämföra resultaten med en nyexaminerad läkares prestation. "Låter ju fantastiskt", tänker jag.

Till min besvikelse berättar forskaren samtidigt att det egentligen inte finns siffror på hur ofta nyexaminerade läkare gör rätt - att det är en estimering han gör. En gissning. I forskningsrapporten som artikeln handlar om kan man vidare se att syftet med studien inte har varit att jämföra Chat-GPT med läkare utan snarare att utforska hur verktyget skulle fungera som hjälpverktyg i vården.

image

De flesta som sysslat med medicinsk forskning vet att man inte kan dra slutsatser kring en frågeställning som en studie inte haft för avsikt att undersöka. Finns det som i detta fall dessutom inga siffror för jämförelse så kan man inte gå ut i populärtidskrifter och berätta att Chat-GPT presterat likvärdigt en underläkare, tycker jag.

Forskarna förklarar själva i slutet av rapporten att även om Chat-GPT imponerar så finns stora risker för allvarliga konsekvenser om man skulle använda verktyget i vården idag – särskilt med tanke på att den i ca 40% av fallen gör stora fel. Bland annat bedömer man att verktyget inte klarar av att föra kliniska resonemang, att det missbedömer allvarlighetsgraden i bröstsmärtor och att det doserar läkemedel fel. De säger att mer forskning behövs innan vi kan implementera denna typ av verktyg i vården.

Artikeln i Ny teknik avslutas visserligen med samma reflektion, men jag känner mig lurad av tonaliteten som vid första läsning indikerar något annat.

image

Min slutsats är att fördelarna med Chat-GPT som hjälpverktyg i vården verkar lovande och de facto är väldigt intressant. Jag kommer definitivt fortsätta hålla ögonen öppna för att se vilka innovationer som kan tas fram för vården i framtiden, men sitter stilla i båten ett tag till. Jag tror nämligen det är extremt viktigt att vi som arbetar med att designa och bygga digitala verktyg och tjänster är öppna för ny teknik, ser möjligheter till innovation och förhåller oss nyfiket, men att vi samtidigt har ett stort ansvar i att våga ifrågasätta och fundera kring risker innan vi tar fram verktyg som kan ha påverkan på samhällets viktigaste funktioner.

Det är med ansvarsfull innovation som vi bäst tar oss in i framtiden!

Ta del av artikeln här. 

Ta del av forskningsrapporten här. 

*Våra blogginlägg skrivs av medarbetare och är personliga åsikter och reflektioner.

test

Inläggsförfattare