Kunstig intelligens diskriminerer kvinner

Ny teknologi er på ingen måte nøytral. Kunstig intelligens produserer diskriminering av kvinner. Nå advarer ekspertene.

TekstTellef Øgrim Foto: Nicklas Knudsen 

Tre dager før den internasjonale kvinnedagen, var en fremtredende norsk teknologto utenlandske fagforeningsrepresentanter og en statssekretær invitert til et frokostmøte i regi av YS for å snakke om ny teknologi og fordommer.  

Et viktig spørsmål som skulle besvares var hvordan bestemmer de som lager dataløsninger med kunstig intelligens (KI) hvilke konklusjoner maskinene kommer fram til?  

TEKNOLOGI PÅ VILLSPOR 

I de siste årene har vi fått flere eksempler på hvordan kunstig intelligens produserer uønskede resultater. Det dreier seg både om selvkjørende biler som ikke kjenner igjen eller rekrutteringsløsninger som forlenger og forsterker diskriminering. Kunstig intelligens er datasystemer som er i stand til å utføre oppgaver som krever menneskelig intelligens. Feltet er stort og uoversiktlig. Det dreier seg blant annet om løsninger som stiller, eller hjelper til å stille, medisinske diagnoser eller som gir en kunde anbefalinger om potensielt interessante produkter. 

TEKNOLOGI DISKRIMINERER 

– Det er populært å bruke KI i rekrutteringsprosesser. Her har mange feilet, sa Tone Marie Wahlstrøm fra IT-selskapet Evry. Hun viste til Amazon som til slutt trakk tilbake sin rekrutteringsløsning, fordi den viste seg å reprodusere diskriminering. 

 – Hvis du putter 10 år med data inn i en algoritme og ber den anbefale en leder, så vil dataene inneholde flest menn og da vil algoritmen gjerne også anbefale menn, sa hun.  

Wahlströms svar på utfordringen, som hun først advarte mot i en kronikk i Dagens Næringsliv i 2019, er å sørge for at de teamene som lager dataløsningene er så mangfoldige som mulig. Hun mente at Evry nå har fått fram grupper som er bedre i stand til å oppdage og forebygge urettferdigheter i teknologi. 

– Mange av eksemplene vi ser kan se uskyldige ut, men er i realiteten alvorlige, sier hun. Et søk etter Johanne på Linkedin nylig førte til svaret «mente du Johan?». Vi tenker at maskiner er nøytrale, men kunstig intelligens blir ikke mer nøytral enn informasjonen vi putter inn i den. De som programmerer både tolker og bestemmer mye av innholdet, sa Wahlstrøm. 

Vi deler oss ofte i to grupper. De som ønsker kunstig intelligens velkommen på alle områder, og de som betrakter den som en av vår tids største trusler. 

MANGE KI-ER 

Det var ikke minst grunnen til at to representanter fra den internasjonale arbeidstakerorganisasjonen UNI, der Finansforbundet og Negotia er norske medlemmer, hadde tatt turen til seminaret. 

– KI er ikke én ting. Det finnes mange forskjellige former for KI, og det glemmer vi ofte, sa Christina Colclough fra UNI.  

Hun mener dette er feil som altfor ofte blir gjort i debatten om teknologien. Ifølge Christina Colclough er vi i ferd med å bli objekter for ITsystemene. 

STERK ADVARSEL: Christina Colclough fra UNI Global Union advarer mot «overvåkningskapitalismen»

DIGITAL ETIKK 

– En gang var jeg min. Nå er jeg deres, sa hun for å illustrere hvordan våre dagligliv konstant blir brukt i andres innsamling av data. 

 Colclough kaller det overvåkingskapitalisme, og mener fagbevegelsen har en stor oppgave i å etablere en digital etikk. 

 – Teknologien må være rettferdig, men for hvem? Hun minnet om at systemene som vokser fram i stor grad er basert på amerikanske regler og verdier. Vi må ikke tillate at kontroll og ansvar overlates til en ting. 

NASJONAL KI-STRATEGI 

I januar i år ble Regjeringens nasjonale KI-strategi lansert. Her blir flere viktige spørsmål stilt: Hvem har ansvaret for konsekvensene av en beslutning som er truffet av KI? Hva skjer når autonome systemer tar egne beslutninger som vi ikke er enige i og som i verste fall fører til skade? Og hvordan sørger vi for at teknologien ikke viderefører og forsterker bevisst og ubevisst diskriminering og forutinntatthet?  

HVA SKJER I BOKSEN? 

Statssekretær Paul Chaffey i Kommunal- og moderniseringsdepartementet pekte på at det ikke er vanlig å lage nasjonale strategier for nærområder. Men utfordringen er at kunstig intelligens stiller spørsmål som likevel krever en slik sentral plan.  Han nevnte blant annet det faktum at KI har evnen til å endre seg etter hvert som den blir klokere. Dermed kan vi ikke helt vite hva som skjer.  

– Vi kan mene at maskinen gir fantastiske svar, men i offentlig sektor må beslutninger kunne forklares og begrunnes. Kanskje vet vi ikke klart hvorfor beslutningen ble som den ble. Vi må ha kontroll og åpenhet om hva som skjer inne i boksene, sa han.  

Han viste også til den nye arkivloven, som han mener har spennende tanker om hvordan sikre åpenhet innsikt i prosessene.  

I stedet for å erklære kunstig intelligens som enten en velsignelse eller en forbannelse, må den vurderes, ikke minst ut fra et likestillings- og mangfoldperspektiv. YS-seminaret ga et alternativt perspektiv som alle innlederne fra hver sine vinkler var inne på. 

 

Les mer: https://www.regjeringen.no/no/dokumenter/nasjonal-strategi-for-kunstig-intelligens/id2685594/?ch=1