Einar Øverenget: «Du vinner ingen nobelpris ved å følge reglene»
Hvordan straffe en algoritme?
— Algoritmer styrer stadig mer, sier han. — Når vi snakker om personlig ansvar har det til nå handlet om at vi kan ta valg, utføre handlinger og stå ansvarlig for konsekvensene. I dag kan algoritmer ta valg og utføre handlinger, men det er veldig vanskelig å stille dem til ansvar for konsekvensene av sine handlinger. For hvordan straffer du en algoritme?
Han bruker et eksempel som er lett å relatere til.
— Ta eksempelet selvkjørende biler. Når den skal velge mellom å drepe en fotgjenger foran bilen eller kjøre inn i fjellveggen og drepe passasjerene, hvem har ansvaret for valgene den tar? Er det programmereren? De som lagde bilen? Bilens eier?
«Når en selvkjørende bil skal velge mellom å drepe en fotgjenger eller passasjerene, hvem har ansvaret for valgene den tar?»
— Det som utløser ansvar er autonomi. Når du har evnen til å overstyre egne handlingsimpulser, styre deg selv, vil du også kunne holdes ansvarlig for konsekvensene av dine valg. Dette må vi holde fast på.
— Utfordringen er når du blant dine medarbeidere har noen som ikke har autonomi, men likevel evne til å ta beslutninger som har konsekvenser. Slik en kunstig intelligens kan.
Å lede er å programmere?
Han er også opptatt av hvordan teknologien former samspillet mellom mennesker gjennom språket generelt og metaforer spesielt.
— Vi har hentet inn metaforer fra maskinene siden 14-1500-tallet. Da var urverket det fremste tekniske vidunder, og vi fikk metaforer som beskrev oss som tannhjul som griper inn i hverandre. Med dampmaskinen kom andre metaforer. Freud snakket om å slippe ut damp.
I dag: vi bruker RAM, multitasking, vi programmerer hverandre. Om 30 år er det noe helt nytt.
— Metaforer er farlige greier. De forteller oss hvordan virkeligheten er. I dag henter vi metaforene våre fra den digitale verden. Vi bruker bilder som RAM, multitasking, båndbredde.
— Vil vi ha de rette metaforene for hva ledelse er? Vil metaforene gi oss en retur til et gammeldags syn på ledelse? At det å lede handler om å programmere?
«Metaforer er farlige greier»
Kan maskiner ha et alkoholproblem?
Han er også opptatt av det programmatiske elementet som sannsynligvis alltid vil være der også når det gjelder kunstig intelligens: algoritmer er basert på regler, mens de største menneskelige bragder utføres av mennesker som strekker eller bryter reglene.
— «Computers can´t do anything, not even compute», er det blitt sagt. Og det er riktig inntil vi en dag får kode som kan overskrive og overskride seg selv.
Og nettopp det med å overskride seg selv mener Einar Øverenget er en grunnleggende menneskelig egenskap.
— Heidegger spurte hvilken modus vi mennesker er i når vi er instrumentelt dyktige. Er det når vi følger regler? Nei, det er ikke det. Svaret er at vi er instrumentelt dyktige når vi er absorbert i situasjonen. Det handler om intuisjon.
— På 80 og 90-tallet var det en diskusjon rundt dette med kunstig. Heidegger-eksperten Hubert Dreyfus dro Heideggers resonnementer videre, og ga NASA en aha-opplevelse da de drev med utvikling av såkalte ekspertsystemer.
— Han påpekte at eksperter er eksperter fordi de ikke følger reglene. De er intuitive, absorberte, de skjønner hva som er riktig å gjøre. Og det som er riktig er ofte ikke det som reglene sier er riktig. Evnen til å gjøre noe riktig selv om det er feil er det som karakteriserer menneskelig intelligens. Intuisjon. Evnen til å overskride seg selv.
«Eksperter er eksperter fordi de IKKE følger reglene»
«Det er én ting vi aldri kan sette bort: Vår moralske sans»
«De drikker ikke, røyker ikke, puler ikke»
«Det handler ikke om å skru av, det handler om hva det neste vi skal gjøre er som gjør at vi ikke lenger gjør det vi gjorde»