INGEN ERSTATTER: Professor i kjønns- og mangfoldsstudier, Siri Øyslebø Sørensen, tror KI vil bli nyttig i rekrutteringsprosesser, men understreker at KI ikke vil erstatte menneskelig deltakelse. (Foto: Helene Kleppe)

Bedre ansettelser med KI?

Kjønnsforsker Siri Øyslebø Sørensen fra NTNU tror KI kan hjelpe til med å luke bort menneskelige fordommer fra rekrutteringsprosesser, men ser ikke et scenario der vi ansettes av roboter.

TRONDHEIM: – Selv om alle som driver med rekruttering helt sikkert ønsker å finne den beste kandidaten til jobben, med den beste kompetansen og de beste egenskapene, viser forskning at det er en tendens til at vi har en tendens til å velge de som ligner oss selv, sier professor Siri Øyslebø Sørensen fra NTNU under et foredrag for Kvinner i Finans Charter i Trondheim.

BEDRE BESLUTNINGER

Øyslebø Sørensen, som leder Senter for kjønnsforskning ved Institutt for tverrfaglige kulturstudier ved NTNU, deltar i BIAS-prosjektet. Her forsøker hun sammen med en gruppe europeiske forskere å finne ut hvordan kunstig intelligens (KI) kan gi bedre beslutninger i rekrutteringsprosesser. Forskning viser nemlig at vi har en tendens til å velge folk som ligner oss selv i ansettelsesprosesser – eller noen som ligner de som allerede bekler stillingene vi rekrutterer til. Det er ingen god oppskrift for å skape mangfold.

– På individnivå er dette en helt forståelig mekanisme, men på aggregert nivå får vi da en situasjon der menn foretrekker menn, samtidig som kvinner også foretrekker menn, fordi det allerede sitter menn i disse posisjonene, sier hun i foredraget.

Det er nettopp denne type problemstillinger BIAS-prosjektet ser på, og håper å kunne løse med teknologi. I samarbeid med HR-folk, ledere og øvrige ansatte forsøker forskerne å utvikle algoritmer. Ved bruk av kunstig intelligens kan menneskelige stereotypier og fordommer lukes ut av rekrutteringsprosessene. Den norske delen av prosjektet samarbeider også med fagforeninger.

Nyhetsbrev

Abonner på nyhetsbrev

Legg igjen e-postadressen din og motta vårt ukentlige nyhetsbrev med de siste nyhetene fra finansbransjen.

– I prosjektet forsøker vi å finne ut hvordan vi kan bruke denne teknologien, når er den nyttig for oss og hvilke faktorer teknologien kan fylle slik at det blir en støtte, forklarer Øyslebø Sørensen når hun oppsummerer hva forskerteamet håper å snart kunne gi oss bedre svar på.

KI REKRUTTERER I NORGE

KI er allerede ganske vanlig i rekrutteringsprosesser internasjonalt. I USA, Sør-Afrika og store EU-land viser studier at KI på en eller annen måte er involvert i opptil 40 prosent av ansettelsesprosessene.

Norge er ikke lengst fremme på å ta i bruk denne teknologien. Her har forskerne faktisk hatt vansker med å finne bedrifter som har mye erfaring på feltet. Samtidig registrerer Øyslebø Sørensen at trenden er i endring. KI begynner å finne veien inn i norske rekrutteringsprosesser. JobbNorge søker KI-utviklere som skal være med og utvikle morgendagens rekrutteringsverktøy.

Forskerne håper verktøyene vil ta hensyn til målet om å skape likestilling og inkludering, men veien mot dette målet er ikke uten utfordringer.

TEKNOLOGIEN ER IKKE KLOK

– Vi må sikre at det ikke produseres menneskelige fordommer og diskriminering, som vi vet har vært et problem historisk. Og så må vi forhindre at KI-teknologien ikke selv finner opp nye former for diskriminering. Teknologien er smart, men den er ikke spesielt klok, sier professoren.

Vi må forhindre at KI-teknologien ikke selv finner opp nye former for diskriminering.

Siri Øyslebø Sørensen, NTNU

Ett eksempel på maskinlæring som kan gå galt er Amazons rekrutteringsprogram fra 2014. Mindre enn ett år etter at lanseringen av rekrutteringsverktøyet skapte store overskrifter, måtte teknologigiganten skrote KI-løsningen sin. Årsaken var at den ganske raskt viste seg å være direkte kvinnefiendtlig. Ifølge Reuters ble Amazons datamodeller lært opp til å måle søkere til teknologistillinger ved å observere mønstre i CV-er som hadde blitt sendt inn til bedriften over en 10-årsperiode. Søknadsbunken maskinen fikk tildelt var imidlertid preget av den mannlige dominansen i teknologibransjen. Dermed lærte maskinen seg selv at mannlige kandidater var å foretrekke.

Det er nettopp erfaringer av samme slag som Amazon gjorde seg, Øyslebø Sørensen og forskerne i BIAS-prosjektet forsøker å unngå. Det å få de grunnleggende spørsmålene riktig er en forutsetning for å lykkes med en bedre rekrutteringsprosess, der verken menneskelige eller maskinlærte fordommer spiller inn.

– Men hva er egentlig en fair vurdering i en ansettelsesprosess?  Det å finne variablene vi kan bygge et dataprogram på er ganske komplekst. Det er mange små detaljer som skal med i vurderingene, forklarer hun.

MENNESKER FORTSATT VIKTIGE

Foreløpige funn i BIAS-prosjektet viser at menneskelige beslutninger ikke uten videre lar seg omdanne til KI-beslutningssystemer.

Dermed er forskerteamet opptatt av de menneskelige beslutningene om hva som skal være menneskelig og fortsatt må være det, og hva som kan overlates til maskinen. Øyslebø Sørensen tror KI kan bli nyttig i rekrutteringssammenheng, men har helt klare tanker rundt hva god bruk vil kreve.

–  Vi må fortsatt forutsette at det trengs aktiv menneskelig deltagelse. Flere må ha mer kunnskap om hvordan f. eks kjønn og andre forskjeller behandles. Vi må fortsatt ha en menneskelig forståelse, og flere må ha en menneskelig forståelse. Dessuten må flere av oss forstå teknologien, og vite hva vi kan bruke den til og ikke. Hvis vi får til det, tenker jeg at KI kan bli et nyttig verktøy, konkluderer hun.