Forsker: Dette får KI til å fungere dårligere på kvinner

Det hender at kunstig intelligens behandler menn og kvinner ulikt. Hvordan skjer dette? KI-forsker Elisabeth Wetzer forklarer hva som ligger bak skjevhetene i teknologien.

Kvinne står i korridor og ser i kamera
Førsteamanuensis Elisabeth Wetzer sier KI har en tendens til å behandle menn og kvinner ulikt. Foto: Petter Bjørklund, SFI Visual Intelligence
Portrettbilde av Bjørklund, Petter
Bjørklund, Petter petter.bjorklund@uit.no Kommunikasjonsrådgiver / Maskinlæring
Publisert: 07.03.25 14:00 Oppdatert: 08.03.25 11:17
Teknologi

Fra helsefremmende teknologi til personlige assistenter. Det er ingen tvil om at kunstig intelligens (KI) kan hjelpe oss på mange ulike måter. Men hjelper den alle likt?

– Man kan si at KI har en tendens til å bruke en slags form for "trynefaktor", svarer førsteamanuensis i UiTs maskinlæringsgruppe og SFI Visual Intelligence, Elisabeth Wetzer.

Hun er KI-ekspert og forteller om en utfordring med KI-teknologi. Den kan behandle personer av ulikt kjønn forskjellig. KI-systemer som foretrekker søknader skrevet av menn, gir lavere kredittgrenser til kvinner, og kjenner igjen færre kvinnelige ansikt er bare noen av eksemplene hun nevner.

Hva får en algoritme til å bli "skjev", det vil si å handle på en måte som favoriserer eller diskriminere basert på kjønn?

Data kan forsterke fordommer og stereotypier

KI er trent på enorme mengder data. Chatboter som ChatGPT, DeepSeek, og Elon Musk sin Grok er basert på millioner av bilder, videoer og tekst fra internettet. Stordata er helt grunnleggende for at KI skal utføre en bestemt oppgave.

Men data er historiske. Det betyr at de kan gjenspeile fordommer og utdaterte stereotypier gjennom tiden, blant annet knyttet til kjønn.

– Om du ser gjennom et datasett fra det siste århundret, vil man fort finne enkeltgrupper som har blitt diskriminert mot på grunn av kjønn, seksuell legning, eller hudfarge. Siden KI er lagd for å finne sammenhenger og mønstre i data, er det en risiko for at systemene kan plukke opp og forsterke skjevheter i datasettet, sier Wetzer.

Konsekvensene av dette kan bli store, særlig for marginaliserte og underrepresenterte grupper.

Da vil systemet tro at kvinner er mindre økonomisk ansvarlige enn menn og derfor mindre egnet til å få innvilget et lån. Slik har det lært seg en skjev og ukorrekt kobling mellom kjønn og inntekt.

– La oss si man har et kredittvurderingssystem som skal vurdere hvor mye en person får i lån. Dersom systemet er basert på lønnsstatistikk fra de siste seksti årene, kommer det til å se at det er stort lønnsgap mellom kvinner og menn, forklarer hun.

– Da vil systemet tro at kvinner er mindre økonomisk ansvarlige enn menn og derfor mindre egnet til å få innvilget et lån. Slik har det lært seg en skjev og ukorrekt kobling mellom kjønn og inntekt.

Bør KI være kjønnsblind?

Hvis det er en risiko for at KI feilaktig bruker kjønn til å behandle folk ulikt, betyr det at systemene bør utvikles til å bli kjønnsblinde?

Det kommer an på hva de skal brukes til, svarer Wetzer. I noen tilfeller kan kjønn være aktuelt for et KI-system å ta hensyn til.

– For eksempel forekommer noen sykdommer hyppigere hos kvinner enn menn. Da vil man ikke ha et system som bevisst ignorerer personens kjønn når det skal oppdage slike sykdommer.

– Dersom informasjonen har betydning for beslutningen den skal ta, er det viktig at kjønn ikke utelates. Men en algoritme bør aldri bruke denne informasjonen til å bestemme hvor egnet noen er til å få innvilget et lån, sier hun.

Dessverre er det ikke alltid enkelt å utvikle systemer som ikke tar hensyn til dette. Det er fordi de er flinke til å fange opp sammenhenger som man ikke ante fantes i dataene. Et KI-verktøy fra Amazon lærte blant annet å ignorere jobbsøknader som nevnte universiteter som var forbundet med kvinner.

Manglende representasjon i data

I dagens globale samfunn er det viktig at alle mennesker representeres likt. Det gjelder også for datagrunnlaget KI-systemene baseres på. Hvem som er representert i dataene eller ikke har mye å si for hvem KI fungerer bedre eller dårligere på.

– Dersom en enkeltgruppe av mennesker ikke er like godt representert som andre i datasettet, vil systemet fungere dårligere på den spesifikke gruppen

– Dersom en enkeltgruppe av mennesker ikke er like godt representert som andre i datasettet, vil systemet fungere dårligere på den spesifikke gruppen, sier Wetzer.

Trenes KI på for eksempel bilder av mannlige professorer, vil den tro at yrket er forbeholdt menn. KI-utviklere bør derfor være bevisst over representasjonen i datasettet, for eksempel når man utvikler systemer som skal utføre oppgaver som har betydning for folks helse.

– For eksempel kan et verktøy for kreftdiagnostikk være utviklet i et velstående land som har råd til det. Mange vil tro at slike systemer fungerer like bra på alle, men noen grupper kan kanskje aldri ha vært en del av treningsdataene. Et slikt verktøy vil sannsynligvis ikke være like god på å oppdage kreft hos disse menneskene, sier Wetzer.

"Woke" KI

Likevel kan jaget etter lik representasjon gå for langt. I fjor ble Gemini, Googles bildegenerator, beskyldt for å være "woke" etter den lagde bilder av tyske soldater fra 1943 med afrikansk og asiatisk utseende.

– Dersom man spør KI om hvordan noe var i Tyskland før i tiden, blir det feil av den å anta at det var et stort mangfold i befolkningen på den tiden. Her ser man at generatoren har aktivt prøvd å være mer mangfoldig og skapt noe som åpenbart ikke gir mening, sier Wetzer.

Kun 30 prosent av de som jobber med KI globalt er kvinner. Det betyr at systemene ofte utvikles av menn. Det kan sette store preg på maskinene. Foto: Illustrasjonen er generert av Adobe Firefly

Skjev kjønnsbalanse

– Det er mange ting man må ta hensyn til når man utvikler KI, for eksempel hvilke treningsdata, nevrale nettverk, og parametre man skal bruke. Disse beslutningene gjøres alltid av noen, og dagens arbeidskraft er ikke spesielt mangfoldig, sier hun.

Utvikles KI av bare én enkeltgruppe, er det en risiko for at teknologien baserer seg på hvordan gruppen forstår, opplever, og fortolker verden. Dette er svært sjeldent en bestemt handling og skjer som oftest uten av utviklerne selv er klar over det.

– Flere studier viser at teknologien formes av de som lager den. Da kan det hende at en enkeltgruppe glemmer å ta høyde for andre menneskers perspektiver og opplevelser rundt kjønnsdiskriminering eller rasisme.

Etterlyser flere kvinnelige rollemodeller

Akademia og arbeidslivet innen KI bør derfor gjenspeile mangfoldet i samfunnet, sier hun. Økt fokus på inkludering er en viktig nøkkel for å skape KI-teknologi som fungerer like godt på alle.

– Det er helt avgjørende at andres synspunkter og erfaringer er med i utviklingen av KI, understreker Wetzer.

Hun har tro på at feltet kommer til å bli mer mangfoldig. Likevel er det flere tiltak som må til for å motivere jenter og kvinner til å studere, utvikle, og forske på KI.

– Vi må skape interesse for teknologi og realfag i ung alder. Det er viktig at jenter er bevisste over karrieremuligheter innen realfag på lik linje som gutter. Vi trenger også gode rollemodeller som kan inspirere dem til å studere og jobbe med KI. Derfor bør vi kaste lys over kvinnelige forskere og deres bidrag til feltet, sier Wetzer.

KI-regulering er nødvendig

I fjor ble verdens første KI-lov vedtatt i EU. Den stiller strenge krav til ansvarlig utvikling og bruk av KI i Europa og Norge. Hele lovverket skal være innført i Norge innen 2026.

Mangel på slike retningslinjer kan bidra til å forsterke sosiale og økonomiske forskjeller blant ulike grupper mennesker. Wetzer er derfor positiv til KI-forordningen og mener den er et viktig steg mot utviklingen av mer trygg og rettferdig KI.

– Jeg mener den vil gi oss grundige retningslinjer for hvordan systemene bør utvikles og testes før de tas i bruk, slik som når man tester nye medisiner. Der er det tydelige prosesser som man må gjennom før medikamentene kan brukes og selges, og det samme bør gjelde KI, forteller Wetzer.

– Forordningen vil oppfordre utviklere og forskere til å tenke over hvordan systemene bør utvikles av hensyn til grunnleggende etiske prinsipper. Det er viktig at KI-systemer fremmer mer enn bare bedriftenes interesser, avslutter hun.

Bjørklund, Petter petter.bjorklund@uit.no Kommunikasjonsrådgiver / Maskinlæring
Publisert: 07.03.25 14:00 Oppdatert: 08.03.25 11:17
Teknologi
Vi anbefaler