Kunstig Intelligens

Moderne teknologi med kunstig intelligens gir potensielt store fordeler, men ikke uten at vi også tilfører ny risiko og nye utfordringer. For hvem har skylden når den selvkjørende bilen treffer en fotgjenger, eller når roboten på eldrehjemmet skader en besøkende i en ulykkeshendelse?

Hvem har skylden når en selvkjørende bil skader et menneske?

KRONIKK: Vi må slutte å tenke på moderne maskiner som magiske eller spesielle, skriver Henrik Skaug Sætra.

Vi er vant til å tenke at når et menneske bruker en hammer til å knuse et glass eller en gravemaskin til å flytte jord, så er det uproblematisk å si at mennesket har ansvaret for det som skjer. Men hvem har ansvaret når maskiner tilsynelatende utfører handlinger eller tar beslutninger på egen hånd? Hvem har ansvaret når en selvkjørende bil eller en robot skader et menneske, en maskin slår Magnus Carlsen i sjakk, eller et fly på autopilot krasjer?

Mennesker må ta ansvar

Problemet i dag, hevder for eksempel Matthias (2004) og Gunkel (2017), er at kunstig intelligens og maskinlæring gjør moderne maskiner kvalitativt forskjellige fra konvensjonelle maskiner. Denne forskjellen, hevder de samme, skaper en «ansvarsglipe», ved at det enten blir urimelig eller feil å si at mennesker har ansvar for maskinens handling.

Er det for eksempel riktig å si at sjakkprogrammene Stockfish eller AlphaZero slo en menneskelig mester i spillene sjakk eller go? Kan vi si at en selvkjørende bil er så avansert at det blir urimelig å ikke tillegge bilen eller programvaren noe ansvar for eventuelle uønskede hendelser? I en ny forskningsartikkel i tidsskriftet International Journal of Technoethics svarer jeg nei på begge disse spørsmålene (Sætra, 2021). Jeg hevder at et slør av kompleksitet skaper et feilaktig inntrykk av at moderne maskiner er spesielle – noe nærmest mystisk eller magisk. Når vi fjerner dette sløret og analyserer disse maskinene, ser vi at de ikke er spesielle, og at mennesker fremdeles til syvende og sist må stilles til ansvar.

Maskiner er uforutsigbare og bruker feil som metode

Moderne maskiner er uhyre kompliserte, og det er vanskelig å forutsi hva en algoritme som trenes opp via maskinlæring, vil komme frem til. En spesielt utbredt type maskinlæring innebærer nemlig at vi gir maskinen et mål, men ikke instruksjoner om hvordan målet best mulig kan nås. Om vi bruker sjakk som eksempel, kan vi gi datamaskinen en database med alle kjente sjakkpartier som er spilt av profesjonelle spillere. Så jobber maskinen seg gjennom dette og «lærer» hva som kjennetegner godt spill. Nyere sjakkprogrammer, som AlphaZero, trenger ikke engang å se hva mennesker har gjort før. Her får programmet kun reglene, og så setter maskinen i gang og spiller mot seg selv. Dette er metoden som er brukt i det som nå er de aller sterkest sjakkmotorene.

Moderne maskiners «handlinger» er til syvende og sist et resultat av menneskelige handlinger.

Henrik Skaug Sætra

Hvordan maskinen finner den beste veien til målet har vi imidlertid ikke full oversikt over, så uforutsigbarhet er derfor det første argumentet som ofte brukes for at det finnes en ansvarsglipe.

En annen vinkling på dette argumentet er at maskinlæring er basert på prøv-og-feil-metode, der selve forutsetningen for læring er at maskinen får gjøre feil – og lære av dem (Matthias, 2004). Mennesker, hevdes det så, kan da ikke være ansvarlige for en prosess der feil både brukes aktivt og ikke kontrolleres direkte av mennesker.

Når algoritmene fører til diskriminering

Ved bruk av maskinlæring forsøker maskinen seg på flere ulike strategier, og på denne måten utelukkes uhensiktsmessige metoder. Det gjør at algoritmene blir gode til å optimalisere, ta bedre valg. Slike optimaliserte algoritmer kan for eksempel føre til at du får overraskende gode tips til serier og filmer i Netflix. Men de kan også føre til at mennesker blir diskriminert, for eksempel når de søker lån eller kredittkort. Det er forbudt å basere slike vurderinger på kjønn eller etnisitet, men når maskiner skal fatte slike beslutninger, blir prosessen lite gjennomsiktig. Det gjør at det er krevende å sikre at diskriminering ikke finner sted. Selv om vi forteller maskinene at de skal se bort fra variabelen «kjønn», for eksempel, vil det nemlig finnes en hel rekke andre variabler som henger tett sammen med kjønn. Når maskinen bruker disse andre variablene kan det føre til indirekte forskjellsbehandling av personer.

Mennesker står bak kodingen av maskinene

I praksis er det sant at kunstig intelligens kan være uforutsigbar for den som utvikler algoritmene. Jeg hevder allikevel at dette er irrelevant. Dersom noen lager en uforutsigbar maskin, er det allikevel et menneske som står ansvarlig dersom man velger å bruke denne maskinen.

Det samme gjelder resonnementet om bruk av feil som metode. Den som velger å bruke feil som metode må stå til ansvar for de feilene som følger. Dersom jeg skulle velge å bruke et uforutsigbart og lite treffsikkert våpen på et område der andre ferdes, vil ikke denne uforutsigbarheten eller lave treffsikkerheten frata meg ansvar når jeg skader noen. Kanskje tvert imot?

Moderne maskiners «handlinger» er til syvende og sist et resultat av menneskelige handlinger. Dette blir tydelig så fort vi avslører maskinenes egentlige natur. Dersom vi sporer maskinenes handlinger tilbake til deres opprinnelse, fjerner vi nemlig sløret av kompleksitet.

For hva er egentlig en selvkjørende bil eller en sjakkspillende maskin? Mennesker skriver kode, kjører koden gjennom programmer som gjør den om til nye programmer, som kan kjøres av forskjellige operativsystemer. Noen slike programmer bruker du for å lese denne saken, ved at de kjøres på telefonen eller datamaskinen din. Andre kjøres av moderne biler og brukes for eksempel til å hjelpe med nødbrems eller å skifte fil. Atter andre programmer spiller spill som sjakk og go.

Viktig med innovasjon, men vi må ta ansvar for konsekvensene

Spørsmål om ansvar og regulering blir stadig viktigere, spesielt siden vi delegerer stadig mer ansvar til maskinene. Autonome våpensystemer er et opplagt tilfelle som vil kreve mye oppmerksomhet, men også fullstendig eller delvis selvkjørende biler skaper store utfordringer. Jeg mener tradisjonelle teorier for å fordele ansvar er tilstrekkelige, men det er helt nødvendig at vi som samfunn aktivt regulerer hvordan ny teknologi kan brukes og ikke. Slik teknologi gir potensielt store fordeler, men ikke uten at vi også tilfører noe ny risiko og noen nye utfordringer, som å vurdere hvem som har skylden når den selvkjørende bilen treffer en fotgjenger, eller når roboten på eldrehjemmet skader en besøkende i en ulykkeshendelse. Regulerer vi for hardt risikerer vi å hindre verdifull innovasjon, men dette gir ikke grunnlag for å late som at moderne maskiner er noe mystisk vi ikke helt kan forstå.

Referanser:

Gunkel, D. J. (2017). Mind the gap: responsible robotics and the problem of responsibility. Ethics and Information Technology, 1-14.

Matthias, A. (2004). The responsibility gap: Ascribing responsibility for the actions of learning automata. Ethics and Information Technology, 6(3), 175-183.

Sætra, H. S. (2021). Confounding Complexity of Machine Action: A Hobbesian Account of Machine Responsibility. International Journal of Technoethics, 12(1).

Les også:

Powered by Labrador CMS