De som utvikler apper og kunstig intelligens har fått et stort ansvar. De kan bli bedt om å lage apper som kan brukes til å diskriminere eller overvåke oss, skriver forsker Leonora Onarheim Bergsjø.

Folk som jobber med teknologi risikerer jobben om de nekter å lage diskriminerende apper

KRONIKK: Risikerer du å miste jobben om du gjør det som er etisk forsvarlig? Dette dilemmaet er gjenkjennelig for mange som utvikler apper og spill.

Publisert

Husker du hvordan du fikk informasjon om venner eller verden før du kunne google, sjekke Facebook eller Snapchat? Da var en telefon til å ringe med, og teknologi var et teknisk yrke. Nå er apper og dataprogrammer blitt en nøkkel til livet i hverdagen og på jobb. Det har endret rollen til dem som utvikler teknologien.

Utviklere har fått et stort ansvar. De kan bli bedt om å lage apper som kan brukes til å diskriminere eller overvåke oss.

Samtidig har vi ikke retningslinjer eller lover som sikrer at de lager trygg teknologi til oss. Ny forskning viser hvordan utviklernes utfordringer er blitt alles problem og hvordan vi kan løse det.

Et sosialt dilemma

Bakgrunnen for den nye forskningen er erfaringer fra dem som utvikler dataprogrammer. Mange forteller at det ikke er rom for å diskutere om løsningene er etisk forsvarlige.

Her er et eksempel: To unge utviklere ble bedt om å utvikle et dataprogram som skulle velge ut de beste jobbsøkerne til en stilling. Da utviklerne trodde de var ferdige med programmet, oppdaget de at det diskriminerte søkere med minoritetsbakgrunn. De informerte ledelsen om at de trengte mer tid og penger for å forbedre programmet, men fikk nei. Ledelsen mente programmet var godt nok. Løsningen var innenfor loven, selv om det var noen avvik, mente de. Hva skulle utviklerne gjøre: Nekte, og dermed risikere å bli byttet ut med andre som ville fullføre jobben, eller fortsette?

Også etter at retningslinjene kom har forskere og aktivister avdekket stadig nye tilfeller av diskriminerende programmer.

Det er ingen tvil om hva som etisk sett er rett å gjøre i situasjonen, likevel oppleves det som vanskelig å gjøre det som er rett. Konsekvensene for den som tar valget er for store.

Dette er det vi forskere kaller et sosialt dilemma. Et sosialt dilemma oppstår når alle vet hva som er riktig å gjøre, men samfunnet er slik at det er vanskelig å gjøre det, og derfor er det mange som lar være. Det gjør det enda vanskeligere å velge det som er riktig.

Etiske retningslinjer ikke nok

Det er mange eksempler på dataprogrammer som diskriminerer mennesker basert på kjønn, etnisitet og funksjonsevne. Det er et samfunnsproblem som både myndigheter og bedrifter vil løse. Derfor har mange laget egne etiske retningslinjer for utvikling og bruk av apper og programmer. Det har bare ikke hjulpet nok.

De kanskje mest kjente retningslinjene er utviklet av EUs ekspertgruppe for kunstig intelligens fra 2019. Her står det at programmer skal legge til rette for at mennesker kan bestemme selv, og at de blir likt behandlet.

Det er disse retningslinjene som gjentas i Norges nasjonale strategi for kunstig intelligens fra 2020. Men også etter at retningslinjene kom har forskere og aktivister avdekket stadig nye tilfeller av diskriminerende programmer.

Kan true menneskerettigheter

Et hovedproblem med retningslinjene er at de inneholder mange fine og politisk korrekte ord, men ikke nok politisk vilje.

Et tydelig eksempel på dette er etiske retningslinjer utviklet i Kina. I retningslinjene Beijing-prinsippene for kunstig intelligens står det at menneskets privatliv, verdighet, frihet, selvbestemmelse og rettigheter skal være tilstrekkelig respektert.

Retningslinjene er laget i samarbeid mellom bedrifter og forskere, og godkjent av myndighetene. Dette er de samme som har utviklet ansiktsgjenkjenning som kan identifisere ulike etniske grupper. Og de samme som bruker kunstig intelligens til utstrakt overvåking av forkjempere for demokrati i Hongkong eller minoriteten uigurer i Xinjuang-provinsen i Kina.

Lekkede bilder og dokumenter fra leirene i Xinjuang-provinsen viser hvor alvorlige brudd på menneskerettighetene dette kan føre til.

Selv om menneskerettighetsbruddene ikke er like alvorlige i et program som diskriminerer jobbsøkere, er det samme problem som ligger bak. Vi trenger stoppmekanismer som fungerer.

Et legeløfte for teknologer?

Hva annet enn etiske retningslinjer kan hjelpe utviklerne ut av deres sosiale dilemma? Flere forskere foreslår nå å gi utviklere den samme opplæringen og beskyttelsen som vi har for andre samfunnskritiske yrker, som leger.

Hvis det hadde vært en lege som ble bedt om å ta noen ekstra omfattende operasjoner for å bedre sykehusets statistikk, kunne legen nektet å gjøre det. En norsk lege kunne vist til Helsepersonelloven, leger i andre land til tilsvarende lover. Og alle leger i hele verden kunne vist til sine etiske forpliktelser som leger. Det er denne forpliktelsen som uttrykkes gjennom den hippokratiske ed, hvor legen lover å avstå fra å skade og gjøre urett.

Lover og løfter for leger sikrer at arbeidsgiver ikke bare kan erstatte en lege som nekter med en annen som vil gjøre jobben.

Slik unngår legene å komme i sosiale dilemmaer. Slike verktøy mangler ennå de som utvikler ny teknologi.

Å utvikle teknologi må få bli en profesjon, ikke bare et yrke

Utviklernes sosiale dilemma kan løses ved at deres yrke blir en egen profesjon, som legenes. Profesjoner er yrker som har sentrale samfunnsoppgaver. De har egne utdanninger, yrkestitler og foreninger. Fordi de har nøkkelroller i samfunnet forplikter de seg til å handle rett og godt. Tradisjonelt sett var leger, prester, ingeniører og advokater regnet som egne profesjoner. I dag snakker vi om mange flere yrker som profesjoner, som sykepleiere og lærere.

Det er bare ved en felles etisk forpliktelse at den enkelte programutvikler kan frigjøres fra sitt sosiale dilemma. Og det er bare på denne måten samfunnet kan få den etisk sett beste teknologien.

Det er en rekke utfordringer ved å profesjonalisere utviklernes rolle. Det blir ikke enkelt. Spørsmålet er om det ikke er en nødvendig løsning for å sikre at ny teknologi blir det vi drømmer om, et verktøy til beste for enkeltmennesker og samfunnet.

Teknologi er blitt et sosialt yrke

Det er tre utfordringer som må løses for at utviklernes skal kunne profesjonaliseres:

For det første trengs en profesjonsetikk, altså en forpliktelse til å handle godt og rett, tilsvarende legenes ed. Profesjoner har utdanning og yrkestrening hvor studenter kan erfare hva etiske regler betyr i praksis, og hvor det vurderes om studentene er skikket til å utøve yrket.

For det andre må det lages regler og lover som utviklere kan vise til, tilsvarende legenes Helsepersonellov.

Med andre ord er profesjonalisering et arbeid som ikke kan drives frem av forskere, fagforeninger eller utdanningsinstitusjoner alene, men som skal involvere både politikere og lovgivere, og selvfølgelig også og dem som utvikler og innfører teknologien.

Det tredje, og avgjørende punktet i utviklingen av profesjonsetikk for utviklere er å anerkjenne deres unike og avgjørende rolle i samfunnsutviklingen. Teknologien er blitt den veven som samler oss mennesker i vårt behov for informasjon, kommunikasjon, helse, læring, vennskap og kjærlighet.


Referanser:

Bergsjø, L.O. (2022) Digitalt kappløp – en verdikamp. I H. Bergsjø og K. Friis (red.), Digitalisering og internasjonal politikk. Universitetsforlaget.

Bergsjø, L.O. (2022). Digitalt medborgerskap. I H.F.Nilsen (red.), Demokratisk medborgerskap i skolen. Universitetsforlaget.

Bergsjø, L.O., Strumke, I. og Harkestad, I. (2022). Sosiale dilemmaer og kunstig intelligens. Podkasten NORDE-podden.

Strümke, I., Slavkovik, M. & Madai, V.I. (2021) The social dilemma in artificial intelligence development and why we have to solve it. AI Ethics. https://doi.org/10.1007/s43681-021-00120-w

Strumke, I. og Barua, I. (2021). Utviklere av kunstig intelligens må få det leger har. Nemlig en profesjonsetikk. Aftenposten. Hentet fra Utviklere av kunstig intelligens må få det leger har. Nemlig en profesjonsetikk. (aftenposten.no)

Vi vil gjerne høre fra deg!

TA KONTAKT HER
Har du en tilbakemelding på denne kronikken. Eller spørsmål, ros eller kritikk til Forskersonen/forskning.no? Eller tips om en viktig debatt?

Powered by Labrador CMS