Få utskriftsvennlig versjon ved å trykke på denne

Norges første Facebook-stipend til UiT-forskere 

Maskinlæringsgruppa ved UiT får penger fra Facebook til å forske på «fake news» og kommentarfeltene i sosiale medier. Det er første gang Facebook bevilger penger til forskning i Norge.


Magne Kveseth 11.12.2019 10:08   (Sist oppdatert: 11.12.2019 12:19)

Forskning Facebook UiT
Maskinlæringsgruppa ved UiT har fått penger fra Facebook til forskning og er ikke bekymret over at midlene kommer nettopp fra Facebook. (Skjermbilde)

Forskergruppa ved UiT skal, sammen med Ole Hjortland og Paal Antonsen, begge filosofer ved Universitetet i Bergen, finne ut mer om logikken i det politiske ordskiftet på Facebook og i media. Med en bevilgning på 100 000 amerikanske dollar skal gruppa forsøke å utvikle nye metoder innen kunstig intelligens for å avdekke logisk svikt i politiske debatter og andre plattformer for meningsutveksling.

Prosjektet har fått tittelen «Identifying Logical Fallacies Using Machine Learning» og er også et samarbeid med University of Cambridge. Leder av forskningsgruppa er professor Robert Jenssen ved Institutt for fysikk og teknologi ved UiT. 

Forskning Facebook
Postdoktor Jonas Nordhaug Myhre skal forske på logikk og det politiske ordskiftet. (Foto: Privat)

Ifølge postdoktor Jonas Nordhaug Myhre ved Institutt for matematikk og statistikk ved UiT, som deltar i prosjektet, er det første gang en forskergruppe i Norge får penger fra Facebook.  

– Vi har søkt både Norges Forskningsråd og Facebook om midler til denne forskningen og har så langt fått positivt svar fra Facebook. For oss som forsker på maskinlæring er det en milepæl at Facebook har bevilget penger til vårt prosjekt etter at de lyste ut forskningsmidler øremerket til «Content Policy Research on Social Media Platforms», sier Myhre. 

De to filosofene ved Universitetet i Bergen har en egen spalte i Morgenbladet på nett, der de logikksjekker det politiske ordskiftet.

«Fake news» eller logisk brist?

– Vårt prosjekt tar sikte på å avdekke logiske brister i det offentlige ordskiftet og i kommentarfelter på nett og sosiale medier. Vi tar sikte på å kunne automatisere denne prosessen og bruke maskinlæring for å få frem resultatene, forklarer Myhre. 

Han forteller videre at prosjektet i sin tilnærming til debattene skal undersøke logikken i det som blir sagt, i stedet for å sjekke hva som er sant eller ikke.

– Vi er glad for at forskergruppa har fått gjennomslag hos Facebook for å forske på spørsmål rundt polarisering og intense, usaklige diskusjoner for å sjekke logikken i det som publiseres, sier Myhre. 

– Ser ikke forskergruppa noen betenkeligheter med å få forskningsmidler fra Facebook for å forske nettopp på det som Facebook styrer med?

– Vi hadde noen betenkeligheter i starten og har fått noen stikk fra kolleger. Men etter å ha diskutert det med samarbeidspartnere fant vi ut at vi ikke har noen betenkeligheter med dette, svarer Myhre. 

Begrunnelsen er at prosjektet får støtte uten føringer eller konkrete forventninger fra Facebook og at Facebook Research er anerkjent i miljøet for å være en åpen og konstruktiv forskningsgruppe.

– Hvis man skal peke på et problem så er det litt av det samme som Facebook selv har fått kritikk for i det siste, nemlig størrelsen. Dette gjelder også andre store firma som eksempelvis Google, Amazon, Twitter, eller Apple som pøser på med penger inn i maskinlæring og kunstig intelligens. Det meste av denne forskningen er heldigvis åpen, men med tanke på tilgjengelige ressurser, både økonomisk og i ren regnekraft, så begynner universitetssektoren å henge etter i vårt fagfelt, sier Myhre.

Automatisk språksjekk

Ifølge postdoktoren er forskningsprosjektet svært ambisiøst. 

– Vi har sagt at vi skal prøve å komme frem til et system som gjennom automatisk tekstprosessering, likt det rammeverket for analyse av tekster som brukes av Google translate og Twitter. Med dagens programmer kan man gjennom å trene opp algoritmer på feedback fra brukere, automatisk finne ut om en tekst er positivt eller negativt ladet. Målet vårt er å utvikle ny metodikk for maskinlæring for automatisk å avdekke logiske feil fra nyheter og media samt brukergenerert innhold på nettet, forklarer Myhre.

Han legger til at dette er et tema med bred og voksende interesse. 

– For å motvirke de siste års økning i informasjonskampanjer, politisk polarisering og anonym mobbing på nett, har det dukket opp flere faktasjekkorganisasjoner, både akademiske og andre. Det som er unikt for vårt prosjekt er at det i utgangspunktet er en enklere og mindre datakrevende oppgave å sjekke logikkstrukturen enn fakta i offentlige uttalelser, sier Myhre. 

– Vi mener polariseringen i nettdebattene forverres av ikke-saklige og ulogiske debattartikler. Med maskinlæring og kunstig intelligens kan svart/hvitt-fremstillinger oppdages uavhengig av faktasjekk med det prosjektet vi skal gjennomføre, sier han avslutningsvis.