Falkum og Lison tar ikke feil når de understreker at kunstig intelligens er basert på sannsynligheter fordelt utover i virtuelle nevrale nettverk. Men de tar feil når de mener at dette gjør at kunstig intelligens er vesensforskjellig fra menneskelig intelligens, ifølge innleggsforfatterne.
(Illustrasjon: Shutterstock / NTB)
Kunstig og menneskelig intelligens ligner mer enn Falkum og Lison hevder
DEBATT: Ingrid Lossius Falkum og Pierre Lison bommer i sin sammenligning mellom kunstig og menneskelig intelligens, ifølge innleggsforfatterne.
Den
eksplosive utviklingen innenfor kunstig intelligens (KI) det siste året har
forbløffet verden.
KI har gjort kvantesprang i sine ferdigheter til å produsere
bilder og tekst som på mange måter fremstår som om de var skapt av mennesker og
menneskelig intelligens (MI).
Menneskelig og kunstig intelligens har viktige likhetstrekk i hvordan de strukturelt er bygd opp og hvordan de fungerer.
Dette bringer med seg en rekke
praktiske, etiske og filosofiske spørsmål. Fremover blir det avgjørende at vi
mennesker faktisk forstår hva vi selv har skapt. Det er viktig å forstå hvordan
KI på samme tid er svært lik og svær ulik hvordan vi mennesker
tenker.
Det er denne oppgaven Falkum og
Lison tar på seg i en kronikk på forskning.no. Men dessverre mener vi at de bommer i sin
beskrivelse. Vi ønsker derfor kort å si hvordan de tar feil og hvordan vi i
stedet bør tenke rundt forholdet mellom KI og MI.
ChatGTP
Falkum og Lison tar utgangspunkt i ChatGPT, en KI
som ofte kan gi svært velformulerte svar på alle slags spørsmål – og også
skrive dikt, sanger og noveller.
Allerede har utdanningsinstitusjoner – slik
som Universitetet i Oslo – måttet gjøre store endringer i hvordan de
gjennomfører eksamen, fordi man frykter at det blir vanskelig for sensor å
skille mellom en eksamen skrevet av ChatGPT og et menneske.
For mange fremstår KI’er
som ChatGPT som menneskelige, tenkende vesen. Vi er helt enige med Falkum og
Lison nå de skriver at «vi har
en iboende tendens til å projisere menneskelige egenskaper på andre vesener»,
og at vi mennesker derfor ofte tilskriver KI mer intelligens og menneskelighet enn
det KI egentlig har.
Vi er også helt enig med Falkum og Lison i at det derfor er
viktig å forstå hvordan KI faktisk fungerer.
Kun
en gjettemaskin?
Hovedpoenget
til Falkum og Lison er at ChatGTP og KI er noe helt annet enn MI. De skriver:
«Prosessen
som brukes til å besvare spørsmål er derfor helt annerledes enn for oss
mennesker […]».
De skriver videre hvordan ChatGPT er basert på «bokstaver
koblet med en sannsynlighet» og det er
«statistiske
regelmessigheter i form, og ikke egentlig innhold, prateroboten lærer.»
Ifølge Falkum og Lison gjør dette
at ChatGTP kun «gjetter seg frem til et svar». KI’er er «i realiteten lite
annet enn en sofistikerte papegøyer» – papegøyer som bare gjetter og hermer,
men som ikke kan tenke slik vi mennesker tenker.
Det er her vi mener Falkum og Lison
bommer. De tar ikke feil når de understreker at KI er basert på
sannsynligheter fordelt utover i virtuelle nevrale nettverk. Men de tar feil
når de mener at dette gjør at KI er vesensforskjellig fra MI. Tvert imot
– faktisk er det nettopp på dette området at KI og MI ligner mest.
Med
mennesket som forbilde
KI
er skapt av sannsynlighetsbaserte virtuelle nevrale nettverk. Dette gjør at KI
ligner på MI, både strukturelt og funksjonelt. Dette er ingen tilfeldighet –
for de siste tiårenes revolusjon i KI er nettopp basert på at man eksplisitt
har brukt MI som modell.
Fra og med 1950-tallet forsøkte
forskere hardt å utvikle KI kun basert på logiske slutninger og formelle
kategorier (ofte kalt «Good Old Fashion AI», se f.eks. Dennett 2017, kapittel
åtte for en diskusjon).
Man trodde at man i løpet av få år skulle klare å lage
maskiner som hadde intelligens på nivå med mennesker. Dette viste seg å være
ekstremt mye vanskeligere enn først antatt. Menneskehjernen er et sannsynlighetsbasert
nevralt nettverk, mens datamaskiner kalkulerer basert på logiske slutninger og
entydige kategorier.
Det var først når man etter hvert eksplisitt begynte å
utvikle KI basert på hvordan menneskehjernen fungerer, at KI virkelig skjøt
fart – og har ført til de forbløffende resultatene vi ser i dag.
Strukturelle
og funksjonelle likheter
MI
og KI har viktige likhetstrekk i hvordan de strukturelt er bygd opp og hvordan
de fungerer.
Menneskehjernens består av
milliarder av nevroner (nerveceller). Hjernen har en kompleks, biologisk og
netteverksbasert struktur. Når hjernen lærer nye ting og blir bedre til å tenke,
skyldes dette at ny informasjon fører til nettverkene av celler omorganiserer
seg.
KI har en struktur som etterligner
slike nevrale nettverk. Falkum og Lison beskriver det på denne måten:
«Språkmodeller [slik som ChatGTP] er basert på store nevrale nettverk som
består av milliarder små regneenheter, eller nevroner, som de også kalles, som
er koblet sammen.»
Det Falkum og Lison ikke nevner, er at KI er strukturert på
denne måte fordi disse virtuelle modellene er basert på (forenklede versjoner
av) hjernens nevrobiologiske struktur.
Siden MI og KI deler en lignende
struktur, er det heller ingen overraskelse at de også på mange områder fungerer
ganske likt. Falkum og Lison hevder likevel at ChatGPT ikke tenker som et
menneske, fordi ChatGPT kun «gjetter» og kun baserer seg på «statistiske
regelmessigheter». Problemet med Falkums og Lisons beskrivelse, er at denne
måten å behandle informasjon på er slående lik MI.
For eksempel: Innenfor den innflytelsesrike
«predictive processing»-innfallsvinkelen forstås hjernens funksjon nettopp som
en «bayesiansk sannsynlighetsmotor» – det vil si at tenkning nettopp er
basert på kvalifisert, erfaringsbasert «gjetting».
En ledende forsker innenfor
kognitiv vitenskap skriver for eksempel at hjernen er «en hypotesetestende
mekanisme som forsøker å minimere avviket mellom våre gjetninger og
informasjonen vi mottar gjennom sansene» (Hohwy 2013: 1, vår oversettelse; se
også Clark 2015 for en god oversikt).
Vi mennesker tror ofte at vi tenker kun basert
på begreper og rasjonelle regler – men bak kulissene er menneskelig tenkning
basert på komplekse nettverk av sannsynligheter.
«Gjetninger» er grunnlaget for
både menneskelig tenkning og maskinintelligens. Hvis «gjetting» gjør at KI kun
er en «sofistikert papegøye», så er vi mennesker også papegøyer.
Menneskelig,
altfor menneskelig?
Likevel
har ikke ChatGPT og liknende programmer en bevissthet og intelligens som et
menneske. MI er vesentlig mer kompleks, mangfoldig, dynamisk og
tilpasningsdyktig. MI er også biologisk og en integrert del av menneskets
nervesystem, sanseapparat, kropp – og kultur, samfunn og fysiske omgivelser.
Det
er svært mange og viktige forskjeller mellom MI og KI. Men Falkum og Lison bommer
i sin beskrivelse av disse. Tvert imot er det nok nettopp på områdene de
fremhever at MI og KI har mest til felles. Dette er ingen tilfeldighet siden
moderne KI forsøker å etterligne egenskaper ved menneskelig tenkning, både strukturelt
og funksjonelt.
Litteratur:
- Clark, A. (2015). Surfing Uncertainty: Prediction, Action, and the Embodied Mind
- Dennett, D.C. (2017). From Bacteria to Bach and Back: The Evolution of Minds
- Hohwy, J. (2013). The Predictive Mind
LES OGSÅ:
Vi vil gjerne høre fra deg!
TA KONTAKT HER
Har du en tilbakemelding på dette debattinnlegget. Eller spørsmål, ros eller kritikk til Forskersonen/forskning.no? Eller tips om en viktig debatt?