Falkum og Lison tar ikke feil når de understreker at kunstig intelligens er basert på sannsynligheter fordelt utover i virtuelle nevrale nettverk. Men de tar feil når de mener at dette gjør at kunstig intelligens er vesensforskjellig fra menneskelig intelligens, ifølge innleggsforfatterne.

Kunstig og menneskelig intelligens ligner mer enn Falkum og Lison hevder

DEBATT: Ingrid Lossius Falkum og Pierre Lison bommer i sin sammenligning mellom kunstig og menneskelig intelligens, ifølge innleggsforfatterne.

Den eksplosive utviklingen innenfor kunstig intelligens (KI) det siste året har forbløffet verden.

KI har gjort kvantesprang i sine ferdigheter til å produsere bilder og tekst som på mange måter fremstår som om de var skapt av mennesker og menneskelig intelligens (MI).

Menneskelig og kunstig intelligens har viktige likhetstrekk i hvordan de strukturelt er bygd opp og hvordan de fungerer.

Dette bringer med seg en rekke praktiske, etiske og filosofiske spørsmål. Fremover blir det avgjørende at vi mennesker faktisk forstår hva vi selv har skapt. Det er viktig å forstå hvordan KI på samme tid er svært lik og svær ulik hvordan vi mennesker tenker.

Det er denne oppgaven Falkum og Lison tar på seg i en kronikk på forskning.no. Men dessverre mener vi at de bommer i sin beskrivelse. Vi ønsker derfor kort å si hvordan de tar feil og hvordan vi i stedet bør tenke rundt forholdet mellom KI og MI.

ChatGTP

Falkum og Lison tar utgangspunkt i ChatGPT, en KI som ofte kan gi svært velformulerte svar på alle slags spørsmål – og også skrive dikt, sanger og noveller.

Allerede har utdanningsinstitusjoner – slik som Universitetet i Oslo – måttet gjøre store endringer i hvordan de gjennomfører eksamen, fordi man frykter at det blir vanskelig for sensor å skille mellom en eksamen skrevet av ChatGPT og et menneske.

For mange fremstår KI’er som ChatGPT som menneskelige, tenkende vesen. Vi er helt enige med Falkum og Lison nå de skriver at «vi har en iboende tendens til å projisere menneskelige egenskaper på andre vesener», og at vi mennesker derfor ofte tilskriver KI mer intelligens og menneskelighet enn det KI egentlig har.

Vi er også helt enig med Falkum og Lison i at det derfor er viktig å forstå hvordan KI faktisk fungerer.

Kun en gjettemaskin?

Hovedpoenget til Falkum og Lison er at ChatGTP og KI er noe helt annet enn MI. De skriver:

«Prosessen som brukes til å besvare spørsmål er derfor helt annerledes enn for oss mennesker […]».

De skriver videre hvordan ChatGPT ­­er basert på «bokstaver koblet med en sannsynlighet» og det er

«statistiske regelmessigheter i form, og ikke egentlig innhold, prateroboten lærer.»

Ifølge Falkum og Lison gjør dette at ChatGTP kun «gjetter seg frem til et svar». KI’er er «i realiteten lite annet enn en sofistikerte papegøyer» – papegøyer som bare gjetter og hermer, men som ikke kan tenke slik vi mennesker tenker.

Det er her vi mener Falkum og Lison bommer. De tar ikke feil når de understreker at KI er basert på sannsynligheter fordelt utover i virtuelle nevrale nettverk. Men de tar feil når de mener at dette gjør at KI er vesensforskjellig fra MI. Tvert imot – faktisk er det nettopp på dette området at KI og MI ligner mest.

Med mennesket som forbilde

KI er skapt av sannsynlighetsbaserte virtuelle nevrale nettverk. Dette gjør at KI ligner på MI, både strukturelt og funksjonelt. Dette er ingen tilfeldighet – for de siste tiårenes revolusjon i KI er nettopp basert på at man eksplisitt har brukt MI som modell.

Fra og med 1950-tallet forsøkte forskere hardt å utvikle KI kun basert på logiske slutninger og formelle kategorier (ofte kalt «Good Old Fashion AI», se f.eks. Dennett 2017, kapittel åtte for en diskusjon).

Man trodde at man i løpet av få år skulle klare å lage maskiner som hadde intelligens på nivå med mennesker. Dette viste seg å være ekstremt mye vanskeligere enn først antatt. Menneskehjernen er et sannsynlighetsbasert nevralt nettverk, mens datamaskiner kalkulerer basert på logiske slutninger og entydige kategorier.

Det var først når man etter hvert eksplisitt begynte å utvikle KI basert på hvordan menneskehjernen fungerer, at KI virkelig skjøt fart – og har ført til de forbløffende resultatene vi ser i dag.

Strukturelle og funksjonelle likheter

MI og KI har viktige likhetstrekk i hvordan de strukturelt er bygd opp og hvordan de fungerer.

Menneskehjernens består av milliarder av nevroner (nerveceller). Hjernen har en kompleks, biologisk og netteverksbasert struktur. Når hjernen lærer nye ting og blir bedre til å tenke, skyldes dette at ny informasjon fører til nettverkene av celler omorganiserer seg.

KI har en struktur som etterligner slike nevrale nettverk. Falkum og Lison beskriver det på denne måten:

«Språkmodeller [slik som ChatGTP] er basert på store nevrale nettverk som består av milliarder små regneenheter, eller nevroner, som de også kalles, som er koblet sammen.»

Det Falkum og Lison ikke nevner, er at KI er strukturert på denne måte fordi disse virtuelle modellene er basert på (forenklede versjoner av) hjernens nevrobiologiske struktur.

Siden MI og KI deler en lignende struktur, er det heller ingen overraskelse at de også på mange områder fungerer ganske likt. Falkum og Lison hevder likevel at ChatGPT ikke tenker som et menneske, fordi ChatGPT kun «gjetter» og kun baserer seg på «statistiske regelmessigheter». Problemet med Falkums og Lisons beskrivelse, er at denne måten å behandle informasjon på er slående lik MI.

For eksempel: Innenfor den innflytelsesrike «predictive processing»-innfallsvinkelen forstås hjernens funksjon nettopp som en «bayesiansk sannsynlighetsmotor» – det vil si at tenkning nettopp er basert på kvalifisert, erfaringsbasert «gjetting».

En ledende forsker innenfor kognitiv vitenskap skriver for eksempel at hjernen er «en hypotesetestende mekanisme som forsøker å minimere avviket mellom våre gjetninger og informasjonen vi mottar gjennom sansene» (Hohwy 2013: 1, vår oversettelse; se også Clark 2015 for en god oversikt).

Vi mennesker tror ofte at vi tenker kun basert på begreper og rasjonelle regler – men bak kulissene er menneskelig tenkning basert på komplekse nettverk av sannsynligheter.

«Gjetninger» er grunnlaget for både menneskelig tenkning og maskinintelligens. Hvis «gjetting» gjør at KI kun er en «sofistikert papegøye», så er vi mennesker også papegøyer.

Menneskelig, altfor menneskelig?

Likevel har ikke ChatGPT og liknende programmer en bevissthet og intelligens som et menneske. MI er vesentlig mer kompleks, mangfoldig, dynamisk og tilpasningsdyktig. MI er også biologisk og en integrert del av menneskets nervesystem, sanseapparat, kropp – og kultur, samfunn og fysiske omgivelser.

Det er svært mange og viktige forskjeller mellom MI og KI. Men Falkum og Lison bommer i sin beskrivelse av disse. Tvert imot er det nok nettopp på områdene de fremhever at MI og KI har mest til felles. Dette er ingen tilfeldighet siden moderne KI forsøker å etterligne egenskaper ved menneskelig tenkning, både strukturelt og funksjonelt.

Litteratur:

  • Clark, A. (2015). Surfing Uncertainty: Prediction, Action, and the Embodied Mind
  • Dennett, D.C. (2017). From Bacteria to Bach and Back: The Evolution of Minds
  • Hohwy, J. (2013). The Predictive Mind
  • LES OGSÅ:

Vi vil gjerne høre fra deg!

TA KONTAKT HER
Har du en tilbakemelding på dette debattinnlegget. Eller spørsmål, ros eller kritikk til Forskersonen/forskning.no? Eller tips om en viktig debatt?

Powered by Labrador CMS