Han forskar bland annat om patienträttigheter, samtycke, tillit och transparens i relation till AI. De flesta är överens om att AI har potential att bidra till allt från snabbare diagnoser till bättre resursanvändning inom sjukvården, men tekniken har också en baksida. Några av riskerna är diskriminering, bristande transparens och sjunkande träffsäkerhet över tid.
Risk för diskriminering
Thomas Ploug tar AI-baserade journalanteckningsverktyg som ett konkret exempel på när modellen kan bli diskriminerande. Den här typen av hjälpmedel, som finns både i Sverige och Danmark, spelar in samtalet mellan läkare och patient och transkriberar det sedan automatiskt till text.
”Det visade sig att ett sådant AI-verktyg som hade införts i Danmark fungerade bra så länge patienten talade ’riksdanska’, men om det var någon med invandrarbakgrund eller med en lokal dialekt sjönk träffsäkerheten drastiskt”.
AI-modeller kräver enorma mängder data för att tränas och om inte denna data är representativ, eller om utvecklingen går för fort, riskerar tekniken att bli diskriminerande eller få en ”bias”. Det här är en av de etiska frågorna som det forskas om på Högskolan i Halmstad.
”För att utveckla etiskt hållbara AI-system måste vi ställa rätt krav under hela processen. Man måste också forska om den dynamiska delen, det vill säga vad som händer i samspelet mellan AI-modellen och läkaren. Forskning visar att AI-applikationer fungerar bäst när människa och maskin samarbetar, i motsats till när läkaren släpper allt ansvar till maskinen. Läkaren måste fungera som ett kvalitetsfilter”, säger Thomas Ploug och tillägger:
”Det räcker inte att en AI-applikation sparar pengar. Den måste också ge ett faktiskt mervärde för patienten. Och den måste fungera för alla, inte bara för vissa. Det är vad ansvarsfull AI handlar om”.
Det finns redan flera regelverk som styr hur AI får användas inom vården, bland annat GDPR, Patientdatalagen och den nya EU-förordningen för AI som börjar gälla 2025. Men Thomas Ploug menar att det inte räcker med juridisk kontroll.
”Etik måste genomsyra hela processen, från idé till färdig applikation. Det finns ofta någon som ser till att lagen följs, men vi behöver också reflektera över de etiska dilemman som uppstår längs vägen, inte bara bocka av en checklista”.
Möten mellan forskare och företag
En viktig del av hans arbete är att skapa mötesplatser för forskare och företag. Tillsammans med bland andra Capio har man hållit flera workshoppar om AI-utvecklingens etiska dimensioner.
Två som deltar på dessa möten är affärsutvecklaren Johan Wahlström och läkaren Carl-Johan Robertz. De arbetar båda på ”innovationshubben” hos Ramsay de Santé, Capios ägarbolag.
”Det intressanta för oss med samarbetet med högskolan och Thomas Ploug är att han både har kunskapen om alla riktlinjer och regelverk tillsammans med etiska frågeställningar som inte kan regleras i lag. AI är här för att underlätta för oss i vården, men det måste styras av det mänskliga hjärtat”, säger Johan Wahlström och Carl-Johan Robertz tillägger: