Redaksjonen ga følgende instruksjon til ChatGPT4: Lag et bilde hvor en kunstig intelligens står overfor et etisk dilemma.

Når roboter blir flinkere og klokere enn mennesker, hva da med etikken?

Når maskinene blir flinkere enn mennesker, endrer de yrker, påvirker bedrifter og transformerer samfunnet. Det er ingen tvil: Kunstig intelligens er en forstyrrende teknologi.

Publisert

Kunstig intelligens (KI) påvirker hverdagen til oss alle – ikke minst ved å styre vår oppmerksomhet.

Ikke bare er teknologien bedre enn mennesker til å sammenfatte informasjon, til å kjenne igjen mønstre og til å behandle (gjenkjenne, oversette og transkribere) språk – de fatter også bedre beslutninger. Maskinene er flinkere til å investere i aksjer, diagnostisere sykdommer og skrive rapporter.

Maskin > menneske

Maskinene har blitt så gode at vi ikke lenger klarer å skille mellom en maskin og et menneske. Vi trenger en Rick Deckard fra filmen Blade Runner for å skjelne. Fordi maskinene forventes å ta stadig flere beslutninger for oss mennesker, trenger vi å lære dem moral. Selvkjørende biler må vite hva de skal gjøre i en kritisk situasjon: Skal de kjøre på en ung person med en barnevogn, en gammel person eller styre i fjellveggen?

Hvordan sikrer vi at maskinmoralen ikke løper løpsk – og sprer normer og verdier som ikke ivaretar menneskelige interesser?

Maskinene må også lære seg menneskelige verdier for at de ikke skal fatte beslutninger som går mot menneskelige verdier – eksempelvis at de dreper mennesker for å nå et konkret (produksjons)mål. Det finnes derfor en rekke prosjekter og bøker om kunstig maskin-moral, der maskinene læres etikk.

Optimistene mener at maskinene kan lære moral like godt som de lærer andre ting. Mer enn det: De kan læres opp til å fatte bedre beslutninger enn mennesker, moralsk sett. Det skal ikke mye til, vil noen hevde – om en ser rundt seg i verden. Vi trenger moralske maskiner for å forbedre verden.

Skeptikerne betviler at maskinene kan lære seg moral. For det første hevder de at maskinene vil favorisere en type etikk, konsekvensetikk, fordi den ligner mest på maskinenes eget språk (algoritmer). KI vil favorisere en kalkulatoretikk. 

Andre er skeptiske til at maskinene kan lære seg innlevelse (empati). De klarer ikke å lese og respondere på folks følelser. Jo, svarer optimistene – ved hjelp av kunstig empati. Men selv maskinene klarer å gjenkjenne visse emosjoner, avhenger det veldig av situasjonen hvordan man bør svare og handle, hevder skeptikerne.

Maskinene er våre venner og forstår oss

Riktige reaksjoner er også avhengig av roller og situasjoner. Det som er riktig for en leder for en gruppe å si eller gjøre i en gitt situasjon, er ikke riktig for en annen i samme situasjon og motsatt. Moralen er situasjonsbestemt og dynamisk. Dette er ikke lett for maskiner å forstå.

I tillegg er de moralske maskinene ikke autentiske, blir det hevdet. De fremstår ikke som jevnbyrdige moralske agenter. Men er det riktig? Det er lenge siden folk begynte å gifte seg med roboter og det som virket som science fiction i den Oscar-vinnende filmen «Her» fra 2014, der hovedpersonen forelsker seg i et datasystem, er i dag virkelighet. Maskinene er våre venner – og våre livsledsagere. De «forstår» oss.

Kunstige maskin-verdier

En annen ting som bekymrer skeptikerne, er at kunstig moral kan bidra til å endre verdiene til folk – og derved moralen. På samme måte som mobiltelefoner og sosiale medier endret våre sosiale normer og verdier, vil maskin-moralen endre etikken.

Hvordan sikrer vi at maskinmoralen ikke løper løpsk – og sprer normer og verdier som ikke ivaretar menneskelige interesser? Hvordan forhindre at maskinene overtar verden – når de ikke bare blir smartere enn oss, men også klokere?

Men hva hvis vi klarer å få maskinene til å tenke og føle – til å bli empatiske, kloke og hjelpsomme – eller lei seg, hissige og sjalu? Må vi da tillegge dem moralsk status, stille diagnoser og forskrive algoritme-terapi? Etablere verksteder for kunstige sosiopater?

Med andre ord står utfordringene i kø. Hvordan skal vi løse dem? Med kunstig moral?

 

Powered by Labrador CMS