En viktig forskjell mellom «tradisjonell» teknologi og KI-teknologi er at vi ikke alltid kan se eller vet om vi blir utsatt for den. Det vil si at vi kan bli utsatt for en KI-teknologi som har makt til å effektivt endre våre handlingsmønstre og måter å forholde oss til verden på - uten at vi er klar over det, skriver kronikkforfatteren.
(Illustrasjon: Shutterstock / NTB)
Hvordan hadde vi forholdt oss til ChatGPT dersom vi eksempelvis visste at det stod en diktator bak?
KRONIKK: For å kunne ta stilling til hvordan vi bør ta i bruk kunstig intelligens (KI) som ChatGPT, må vi forstå hva denne formen for teknologi er og gjør.
Da ChatGPT ble tilgjengelig for hvermansen i november i fjor,
tok det bare noen uker før lærere sendte bekymringsmelding til Stortinget om
hvordan roboten kunne føre til juks på eksamener. Andre ytret bekymring for
hvordan denne type teknologi vil kunne føre til at mennesket utsletter seg
selv.
For å begynne med det siste først. Det er særdeles liten
grunn til å frykte at KI-teknologi fører til at mennesket utsletter seg selv.
Derimot er det stor grunn til å erkjenne at KI-teknologi vil føre til at ikke
bare eksamensformer, men også hele samfunnsstrukturer som vi lever i og kjenner
i dag, vil kunne endres raskt.
Effektivisering
Teknologi har til alle tider endret både samfunnsstrukturer
og menneskelige forhold. Enten den har kommet i form av steinøks, boktrykkerkunst,
dampmaskin, bil eller mobiltelefon, har den alltid bragt med seg endring.
Da atombomben ble utviklet, var faren ved den åpenbar og lett å forstå. Faren ved nyere KI-teknologi er ikke like åpenbar å forstå eller å få øye på.
Teknologi
er effektiviserende verktøy fremstilt både av og for mennesker for at vi skal
kunne oppnå våre mål, ja: mer effektivt. Enten det er å forflytte oss over
store geografiske avstander raskere og mer effektivt, produsere mat mer
effektivt, jobbe mer effektivt eller for å få leve livene mer effektivt.
Når vi i dag snakker om KI-teknologi, snakker vi om ulike
teknikker innenfor maskinlæring som beregner noe på en mer effektiv måte for
oss.
Teknologi er ikke nøytral
Teknologi er aldri nøytral. Det høres kanskje underlig ut,
for man kunne jo anta at det er bruken av en teknologi som skulle avgjøre
om den eksempelvis fører til noe bra eller noe mindre bra.
Pistoler dreper ikke mennesker, det er mennesker som dreper,
lyder en kjent påstand. For en pistol er jo ikke i stand til å gjøre noe som
helst på egenhånd. Et viktig motargument er imidlertid at når pistolen allerede
finnes i verden, så er den ladet med muligheten for å kunne bli brukt
som et mordvåpen. Ja: det er mennesket som utfører handlingen, men fordi
pistolen har den iboende muligheten at den kan bli brukt som et
mordvåpen, er pistolen i seg selv ikke nøytral.
All teknologi - en bil, en minibank, en barbermaskin og en
mobiltelefon - er ladet på førende måter som har som konsekvens at vi som
mennesker både handler og oppfører oss på konkrete måter. Slike verktøy
effektiviserer noe for oss og endrer våre handlingsmønstre
Langt fra science fiction
Kunstig intelligens, KI-teknologi, er heller ikke annet enn dette:
effektiviserende verktøy fremstilt av og for oss mennesker for at vi skal kunne
oppnå våre mål enklere og raskere. KI som fagfelt lider derfor under navnet
sitt.
Til og med herrene som sommeren 1956 etablerte navnet
«kunstig intelligens» (mest for å skille fagfeltet fra kybernetikk) angret i
etterkant. Det har senere vært antydet at begrep som «beregningsrasjonalitet» kunne
bidratt til å gjøre det lettere å beskrive hva fagfeltet holder på med – i stedet
for en tåkeleggende science fiction-preget metafor som «kunstig intelligens».
Usynlig maktutøvelse
Da atombomben ble utviklet, var faren ved den åpenbar og lett
å forstå. Faren ved nyere KI-teknologi er ikke like åpenbar å forstå eller å få
øye på.
En viktig forskjell mellom «tradisjonell» teknologi og KI-teknologi er at vi ikke alltid kan se eller vet om vi blir utsatt for den. Det
vil si at vi kan bli utsatt for en KI-teknologi som har makt til å effektivt endre
våre handlingsmønstre og måter å forholde oss til verden på - uten at vi er
klar over det.
Ofte er det først når teknologien har fått rotfeste hos massene
og når flertallet har tatt den i bruk, at farene ved den åpenbarer seg. Og da
er teknologien svært vanskelig å trekke tilbake.
Utfordringen vår blir snarere å finne ut hvordan vi kan tilpasse
oss og leve så godt som mulig sammen med den.
Data er ikke nøytral
Algoritmer er en matematisk prosess som bruker data etter en
nøyaktig fremgangsmåte. Algoritmer bruker altså data. Data er en registrering
eller telling av noe som har vært. På samme måte som med pistolen, skulle man
tro at data er nøytral. Men det er den ikke.
Det er alltid noen som har bestemt hva som
skal registreres, hvor mye som skal registreres samt hvor det
skal registreres og telles – det vil si at noen har bestemt hva som er verdifullt
nok til å bli tellet med i et datagrunnlag.
All data er derfor preget av noen. ChatGPT er
eksempelvis basert på enorme mengder med data som de som står bak Chat GPT har
bestemt at den skal ha som sitt datagrunnlag.
Det vil si at de som står bak ChatGPT har definisjonsmakt og
er i posisjon for å definere hva som er innenfor og hva som er utenfor.
Det som ikke er tellet med i datagrunnlaget til ChatGPT, vil selvsagt ikke
finnes.
Makt til å forme verden
KI-verktøy som ChatGPT er derfor i posisjon for å definere
hva verden skal sette opp og ramme inn som sannheter med store S'er. På denne
måten har ChatGPT makt til å forme verden.
Hvordan hadde vi forholdt oss til ChatGPT dersom eksempelvis
en person som Hitler stod bak?
Dersom vi som kollektivt samfunn, i vår felles iver etter å effektivisere
både det ene og det andre, lar verktøyet få dominere våre måter å produsere og generere
informasjon på, vil vi miste vår egen posisjon til å kontrollere informasjon og
eie historiefortellingen.
Vi gir fra oss muligheten til å sette premisser og definere
hva som er verdifullt, hva som er innenfor eller utenfor. Vi vil miste vår egen
definisjonsmakt.
Vi, som et ansvarlig demokratisk samfunn, må sikre oss en
dyp forståelse av de grunnleggende problemstillingene KI-teknologi som ChatGPT
fører med seg – og vi må agere på disse.
Vi vil gjerne høre fra deg!
TA KONTAKT HER
Har du en tilbakemelding på denne kronikken. Eller spørsmål, ros eller kritikk til Forskersonen/forskning.no? Eller tips om en viktig debatt?