Hvor pålitelig er egentlig kunstig intelligens for HR?
Stadig ny teknologi, automatisering og kunstig intelligens i HR og rekruttering byr på både muligheter og fallgruver. Etiske dilemmaer kan fort oppstå hvis man blir fristet til å bruke metoder uten tilstrekkelig gyldighet og objektivitet.
Adrian Furnham er professor i psykologi ved Handelshøyskolen BI, forfatter, og har vært med å utvikle flere psykologiske tester for bruk i rekruttering. Han forteller at stadig større bruk av kunstig intelligens og moderne teknologi også byr på noen etiske dilemmaer. Han advarer mot å stole blindt på vektleggingen av positive egenskaper ved et nytt produkt eller en tjeneste.
– Det hele ser ofte veldig lovende ut. Du blir lovet gull og grønne skoger, det er raskere, bedre og billigere, men ofte er det på bekostning av gyldighet og validitet, presiserer Furnham, som gjør oss oppmerksom på en objektiv fremgangsmåte der man stiller noen kritiske spørsmål underveis.
Hvor dokumentert er egentlig påstandene? Hva kan gå galt ved anvendelse av nye metoder og tjenester i testindustrien? Automatiserte personlighetstester skal gjøre jobben raskere og enklere, men hvor godt blir jobben gjort? Dersom man ender opp med å gjøre jobben en gang til, er noe av kost-nytte effekten borte. I dag er det mange valgmuligheter i bruk av testverktøy innenfor kandidatvurdering. Det gir mange muligheter, men også noen utfordringer.
Validitet
– Når det kommer til bruk av kunstig intelligens og nye teknikker i seleksjon, er det en rekke temaer man bør være oppmerksom på. Særlig fordi det er en tendens at man får forklart hvor bra metodene er, med mindre informasjon om det som ikke er bra. Jeg vil gjerne ha bevis for hvor effektiv og pålitelig metoden er, sier Furnham.
– Det er spesielt fire spørsmål man bør stille seg. For det første om det er solide bevis for metoden? Hvordan er det med validitet og kvalitet man får ut av det? I hvilken grad kan man si hvor sikker og feilfri metoden er?
– Problemet er at verifisering og validering av en metode er veldig tidkrevende, og derfor er det noen som hopper over dette. Å dokumentere effekten av ulike metoder er omstendelig arbeid og ikke noe man kan ta lett på.
– Så hvordan vet de sikkert at det skaper raskere og bedre effekt? Min bekymring er at mange finner nye metoder attraktive fordi de høres så lovende ut, mens det ikke er nok bevis for validitet. Hvor presise er målingene? La det være klart at det å bevise effekt og validere en metode er tidkrevende og krever mye innsats, sier Furnham.
Diskriminering
– Det andre er dette med diskriminering som er fort gjort å glemme. Er metoden virkelig så ikke-diskriminerende som de sier? Eller sier de noe om det i det hele tatt? Får vi informasjonen vi trenger til å gjøre en objektiv vurdering, og som viser både konsekvenser og effekter av metoden?
– Når metoder er sterkt vektlagt av maskiner og teknologi kan det hele fort bli overfladisk. Kanskje er det kandidater som faller utenfor fordi de ikke har den samme tilgangen til moderne teknologi som andre grupper i samfunnet? Dette kan være svakere stilte eller for eksempel eldre målgrupper.
Furnham er bekymret for den diskriminerende effekten ved noen metoder og at det ikke kommer tydelig frem. Mange av metodene er ikke så ikke-diskriminerende som mange tror. Det etiske aspektet er viktig og at man unngår diskriminering.
– Selv om nye metoder gir raskere tilgang til flere kandidater, er det fortsatt viktig å se på hvor presise vurderingene er. Man bør veie for og imot ulike etiske fallgruver og dilemmaer knyttet til ulike metoder med kunstig intelligens.
Kostnad og effekt
– Et tredje spørsmål er pris. Er det virkelig billigere? Er det virkelig så kostnadseffektivt som det høres ut som? Vi tror kanskje at det blir billigere, men så viser det seg at det krever også en viss tid og innsats. Erfaringen blir kanskje annerledes enn forventingen om at det skal være så kostnadseffektivt.
– Det fjerde spørsmålet handler om den reelle effekten av metoden. Dette er elefanten i rommet. Det er åpenbart et viktig tema som mange er opptatt av, men som likevel noen ganger blir glemt. Er effekten fullt ut forstått? spør Furnham.
– Er dette en etisk måte å gjøre ting på? Hva er konsekvensen av denne metodebruken? Hvor godt virker metodene?
Furnham presiserer at han ønsker å være objektiv og vurdere de etiske dilemmaene ved modernisering og bruk av kunstig intelligens. Han tror at mange ikke har tenkt over de etiske dilemmaene. Ellers blir det fort markedsstyrte krefter bak beslutningene. Vi trenger et faglig ståsted.
Det kan lønne seg å ha et kritisk blikk på fordeler og ulemper, og få frem hele bildet. Er det noe som eventuelt holdes tilbake eller virker skjult? Vær objektiv og still noen kritiske spørsmål rundt validitet og effekt av metoden. Det kan fort oppstå etiske dilemmaer dersom man ikke er oppmerksom på fallgruvene. Ikke minst kan det bli et kostnadsspørsmål der man ender opp et annet sted enn man tenkte seg.
Det er altså særlig disse fire punktene Furnham fremhever:
1) Validitet, 2) Diskriminering, 3) Kostnad og 4) Effekt
På Rekrutteringsdagen 2023 14. februar vil Furnham gå gjennom 20 ulike måter å vurdere kandidater på, og se nærmere på noen av de seneste utviklingene basert på kunstig intelligens og datateknologi. Han vil også si noe om potensielle fallgruver og etiske dilemmaer knyttet til validitet og konsekvenser av metodikk.
Les mer om Rekrutteringsdagen 2023 og se program og påmelding her.