Kunstig intelligens: Advarer mot diskriminering av minoriteter

Helsevesenet er om bord når KI-toget nå forlater stasjonen. Men kan vi stole på at kunstig intelligens driver likebehandling av pasienter? – Det finnes en risiko for diskriminering, og minoritetsgrupper er særlig utsatt, advarer Mathias Karlsen Hauglid.

Person jobber i medisinsk laboratorium
I helsesektoren er implementeringen av KI-systemer i en tidlig, men raskt voksende fase. Bruken av kunstig intelligens for å støtte kliniske beslutninger kan bli vanlig praksis i nær fremtid. Foto: Michal Jarmoluk
Portrettbilde av Eidum, Espen Viklem
Eidum, Espen Viklem espen.eidum@uit.no Kommunikasjonsrådgiver
Publisert: 18.12.23 14:20 Oppdatert: 20.12.23 23:35
Helse og velferd Lov og rett Naturvitenskap Teknologi

Nylig leverte Hauglid sin doktorgradsavhandling «Bias and Discrimination in Clinical Decision Support Systems Based on Artificial Intelligence» ved Det juridiske fakultet på UiT. En avhandling han startet på tilbake i «steinalderen» i 2019. Altså før for eksempel ChatGPT og før folk flest for alvor begynte å interessere seg for temaet kunstig intelligens (KI). Men også før EU lanserte det første lovforslaget som helt spesifikt rettet seg mot bruken av KI.

Stor bekymring for "skjevheter"

De siste årene har utviklingen på området skutt voldsom fart. Innen helsesektoren er implementeringen av KI-systemer i en tidlig, men raskt voksende fase, og der bruken av kunstig intelligens for å støtte kliniske beslutninger kan bli vanlig praksis i nær fremtid.

Innen områder som diagnose, behandlingsanbefaling, forebygging og prioritering av ressurser, blir bruken av kunstig intelligens i dag utforsket i praksis, påpeker Hauglid.

Fordelene er åpenbare, men Hauglid understreker at det finnes alvorlige utfordringer ved å ta i bruk systemer for kunstig intelligens, også innen helsesektoren. Han påpeker at en stor bekymring knytter seg til faren for at «skjevheter» i kunstig intelligens-systemer kan føre til diskriminering.

Så hvordan kan det skje?

Minoriteter særlig utsatt

Hauglid har i sin avhandling tatt for seg kunstig intelligens-systemer basert på maskinlæring, og der bruken av historiske data er selve grunnlaget for teknologien.

Bruken av historiske data er selve grunnlaget for maskinlæringsteknologien. Foto: Jonatan Ottesen, UiT

Man trener opp maskinlæringsalgoritmer ved bruk av store mengder relevante data, som for eksempel er samlet inn fra helsetjenesten. For eksempel kan en algoritme lære at det kan være en sammenheng mellom en viss kombinasjon av ord i en elektronisk helsejournal og økt sannsynlighet for en spesifikk sykdom.

I slike tilfeller er minoriteter særlig utsatt. Årsaken er enkel: som regel finnes det rett og slett mindre data om minoritetsbefolkninger, påpeker Hauglid. En algoritme som trener på historiske data, blir som regel bedre tilpasset de tilfellene den har sett mange av i et datasett.

Der er som regel ikke minoritetene representert.

Det kan bety at en algoritme blir bedre egnet til å forstå spesielle sykdomssymptomer slik de presenterer seg for majoritetsbefolkningen sammenlignet med minoriteter, sier Hauglid.

Historiske feilvurderinger

I forlengelsen av problemstillingen kan det være skjevheter i systemet som er litt uavhengig av hvor godt representert de ulike gruppene er i datasettet.

Dette kan ha å gjøre med historiske feilvurderinger eller antakelser som historisk har vært lagt til grunn. Dersom antakelsene blir lagt til grunn når man utvikler en algoritme, så kan det resultere i at forskjellsbehandling videreføres gjennom et kunstig intelligens-system, sier Hauglid. En tilleggsutfordring er at KI-systemer potensielt kan fange opp informasjon om gruppetilhørighet uten at menneskelige utviklere eller brukere av systemene er klar over dette.

En ulik og diskriminerende tjenestestandard er selvsagt ikke noe vi ønsker

Konsekvensen av en eventuell forskjellsbehandling på området helse, gjør at vi risikerer å levere helsetjenester med ulik kvalitet, avhengig av hvilken gruppe den enkelte pasient tilhører.

 En ulik og diskriminerende tjenestestandard er selvsagt ikke noe vi ønsker, enten det er mellom kvinner og menn, majoriteter og minoriteter, etnisitet, seksuell legning osv, sier Hauglid.

Generelt lovverk

Hauglid viser til at vi i dag har et svært generelt lovverk når det gjelder diskriminering. Et overordnet prinsipp om ikke-diskriminering er nedfelt i Grunnloven, Menneskerettskonvensjonen og på EU-rettslig nivå. I Norge har vi også en egen lov om likestilling og ikke-diskriminering.

Mathias Karlsen Hauglid. Foto: UiT Norges arktiske uiversitet

Utfordringen er at det nærmere innholdet i de overordnede prinsippene er utviklet gjennom rettspraksis og gjennom saker som sjelden omhandler kliniske beslutninger og langt mindre kunstig intelligens. Dermed er det vanskelig å tolke hva reglene betyr på dette området, sier Hauglid.

Skal forhindre diskriminering

I 2021 foreslo EU-kommisjonen et felles europeisk regelverk for AI-systemer (AI Act). Forslaget gikk blant annet ut på at det skulle kreves visse forebyggende tiltak for å sikre effektiv beskyttelse av sikkerhet og grunnleggende rettigheter, som en forutsetning for å ta i bruk et AI-system. På tidspunktet for innlevering av avhandlingen, gjensto en endelig politisk behandling av detaljene i regelverket. Likevel viet Hauglid mye plass til lovforslaget i doktorgradsavhandlingen.

Fredag 8. desember 2023 ble det enighet om AI Act i EU.

Med det nye regelverket får utviklere og brukere av AI-systemer plikt til å gjennomføre ulike vurderinger før et KI-system tas i bruk eller plasseres på EU-markedet. Hauglid påpeker at dette inkluderer forhåndsvurderinger knyttet til eventuell diskriminering. Formålet er å forhindre at diskriminering oppstår etter at et system er tatt i bruk.

Men en slik løsning reiser nye spørsmål.

Hva er diskriminering?

Mens kjernen i prinsippet om ikke-diskriminering har blitt klarere over tid, er det ikke åpenbart hva diskriminering betyr i konteksten av KI-systemer eller hvordan diskriminering kan vurderes, spesielt før et system blir tatt i bruk. Hauglids avhandling diskuterer hvordan slike forhåndsvurderinger kan gjennomføres.

Hauglid mener samtidig at det er behov for videre utvikling av metoder og kriterier, for å sikre ikke-diskrimineringsprinsippet. I avhandlingen peker han på utfordringer i den sammenheng:

Praktiske implikasjoner inkluderer kompleksitet og ressurskrav for å gjennomføre en forhåndsvurdering, noe som krever spesialisert kompetanse innen juss, maskinlæring og medisin. Dette kan være utfordrende for mindre bedrifter og helseinstitusjoner med begrensede budsjetter.

– Unikt arbeid

Hauglids doktorgradsprosjekt er en del av det tverrfakultære prosjektet «Data-Driven Health Technology», som har sitt utspring i Forskningsgruppa for maskinlæring ved UiT. Prosjektet har fått tildelt midler gjennom UiTs utlysning Tematiske satsinger, og er et samarbeid mellom Fakultet for naturvitenskap og teknologi, Det helsevitenskapelige fakultet og Det juridiske fakultet. 

I tillegg til juridiske veiledere Tobias Mahler, UiO og Ingunn Ikdahl, professor II ved UiT, har Robert Jenssen ved UiTs maskinlæringsgruppe veiledet Hauglid i doktorgradsarbeidet.

Hauglids arbeid, i skjæringsfeltet mellom jus, maskinlæring og helse, er unikt i nasjonal og internasjonal målestokk. Dette legger grunnlaget for mye spennende ny forskning innen jus, men også for oss KI-forskere for å utvikle metodikk for forhåndsvurderinger, sier prosjektleder og medveileder Robert Jenssen.

Eidum, Espen Viklem espen.eidum@uit.no Kommunikasjonsrådgiver
Publisert: 18.12.23 14:20 Oppdatert: 20.12.23 23:35
Helse og velferd Lov og rett Naturvitenskap Teknologi
Vi anbefaler