Du er kanskje ein av mange som såg deepfake-videoen av Tom Cruise? Depfake-skaparen som kallar seg Ctrl Shift Face laga i 2019 ein video der andletet til komikar BIll Hader vart endra til å sjå ut som Tom Cruise.

«Deepfakes har sprengkrafta til å sørge for politisk motivert vald, sabotere val og øydelegge diplomatiske relasjonar»

KRONIKK: Falske videoar er ikkje berre ei underhaldande teknologisk nyvinning. Det kan også være ein trugsel for deg, og ikkje minst kan det bidra til konflikt mellom grupper og land.

Kva ville du gjort om du såg ein video på internett av Noregs statsminister som sa at atomvåpen var planlagd brukt mot Noreg i nærmaste framtid og at alle måtte samle seg i sitt nærmaste bomberom?

For dei fleste er ein slik uttale urealistisk med bakgrunnen i den noverande sikkerheitspolitiske situasjonen. Men slike utspel treng ikkje å skje på ekte lenger for at vi skal sjå ein slik video.

Utviklinga i samfunnet går raskare enn aldri før – men for dei fleste av oss er det vanskeleg å forstå kva slags konsekvensar dette kan ha for oss i kvardagen. Teknologien gir mange moglegheiter, men og nye typar utfordringar. Den kan blant anna mogleggjere situasjonar som aldri hadde skjedd elles.

Kva er deepfakes?

Det som mogleggjer slike hendingar som nemnd ovanfor blir kalla for deepfakes, og nyttar kunstig intelligens for å produsere videoar, lyd og bilete som kan vere vanskeleg å avsløre som falske. Ordet deepfake kjem frå den underliggande teknologien deep learning, eller djup læring, som er ein type kunstig intelligens. Algoritmar innanfor djup læring lærar seg sjølve korleis ein løyser problema når dei får store mengder med data, og er brukt blant anna for å bytte ansikt i video som ser realistisk ut.

Maskinlæringsteknikkar har automatisert det som vanlegvis pleidde å vere ein manuell prosess, noko som gjer at det å redigere videoar på denne måten går mykje raskare.

Det er fleire måtar å lage deepfakes på, men den vanlegaste bruker djupe nevrale nettverk som involverer autokodarar som nytter ein teknikk for bytte av ansikt. Ein trenger først ein grunnvideo som grunnlag for deepfake - og deretter ei samling videoklipp av personen du ynskjer å sette inn i denne. Men dette er ikkje berre avgrensa til videoar. Ein kan og lage falske lydklipp.

Berre truverdige deepfakes av kjendisar

Du er kanskje ein av mange som såg deepfake-videoen av Tom Cruise? Bakgrunnen for at det foreløpig berre er truverdige deepfakes av kjendisar og politikarar, er fordi det eksisterer så mykje data av dei på internett som kan «trene opp» maskinene til å kjenne att og attskape ansiktstrekk og stemmer.

Artikkelforfattaren har her enkelt generert ein deepfake-video der ansiktet hans erstattar ansiktet til den amerikanske rapparen Nicki Minaj.

På same tid lev dei aller fleste av oss store deler av liva våre digitalt – og denne dataen som vi deler med omverda, kan fort påverke oss på måtar vi ikkje hadde sett føre oss tidlegare. Enkeltpersonar kan bli utsett for utpressing, men følgene kan og være av eit helt anna kaliber.

Store internasjonale konsekvensar

Deepfakes kan og vere retta mot land og ha politiske motiv. No er det kanskje ikkje Noreg som er det største målet for deepfakes som spesifikt rettar seg mot statar. Men vi som eit lite land i ei stor samankopla verd, kan bli påverka av dei tilhøyrande konsekvensane. Måla kan vere land som har skjøre institusjonar, innbyggjarar med låg digital kompetanse, på same tid som dei har ei splitta befolkning.

Det er mange tenkte situasjonar som kunne hatt store internasjonale konsekvensar.

Dersom Donald Trump, tidlegare president i USA, i ein video under si presidentperiode hadde spotta prestestyret i Iran, håna deira religion – eller latterleggjort andre regime USA har eit anstrengt forhold til, kunne konsekvensane vore store og skjebnesvangre. Sjølv om dette raskt ville blitt avslørt som falsk, ville videoen og bodskapen allereie ha spreidd seg breitt.

Freistande å bruke for å manipulere eigne innbyggjarar

Teknologien bak deepfakes vil også etter kvart vere særs freistande for fleire statar å bruke for å manipulere både eigne innbyggjarar, men og innbyggjarar i andre land. Ved å bruke slike videoar rett før eit val kan ein også bidra til å snu opinionen på kort tid.

Deepfakes har rett og slett sprengkrafta til å sørge for politisk motivert vald, sabotere val – og øydelegge diplomatiske relasjonar.

Scenarioa er kanskje ikkje sannsynleg med det første, men ulempa er at det er så mange aktuelle scenario at det ikkje er overraskande om noko liknande vil kunne skje i framtida.

Etter kvart som teknologien utviklar seg og spreiar seg over heile verda, vil og mange av oss ha moglegheita til å lage videoar og lydklipp som kan overtyde dei fleste. Snart vil det krevjast eksterne verktøy for å kunne skilje dei manipulerte frå dei ekte videoane.

Berre starten på «fake news»

I over hundre år har video og lyd fungert som ei slags kvalitetssikring av kva som er sant og ikkje. Allereie er det nokre som stiller spørsmål kring hendingar som vi har tydelege bevis for skjedde, som Holocaust, 9/11 og månelandinga. Om deepfakes gjer at tilliten til desse bevisa blir enno svakare, kan ein risikere at utfordringane ein ser no knytt til konspirasjonsteoriar og desinformasjon berre vil forverre seg.

Deepfakes er ein tilhøyrande del til eit større problem som i stor grad er skapt med massiv informasjonsflyt igjennom internett og sosiale medier, som diverre ofte blir utnytta. Internett som domene har aldri hatt ein god måte på å skille mellom kva som er ekte og kva som er falsk. Når ein ser på eit bilete på ein skjerm er det vanskeleg å avgjere kva som er ekte og ikkje.

Fjerna meiningsmotstandarar

Manipuleringar er ikkje noko nytt, ei heller med politisk motiv. Sovjetunionen under Stalin fjerna sine meiningsmotstandarar og andre frå bileta for å skrive om på historia. Framveksten av deepfakes er eit vendepunkt i moglegheita til å skape falskt innhald. På same tid er det falske innhaldet stadig vanskelegare å oppdage – og raskare å lage.

Heldigvis er fleire av dei store selskapa i ferd med å ta dette meir på alvor.

Dei amerikanske professorane Robert Chesney og Danielle Citron har vist til ein effekt der dei vanlege innbyggjarane blir meir oppmerksame på deepfakes. Dette kan sørge for at stadig fleire vil så tvil om kor ekte alle slags videoar er. Vidare kan det difor skape mogelegheiter for nokon som blir tatt for dårleg oppførsel i ein ekte video. Det vil vere enklare å avvise videoar som faktisk er autentiske som falske og deepfake.

Kva kan gjerast med deepfakes?

Vi ser allereie konsekvensane av sosiale medier – og bruken av desinformasjon både oppimot val, men og i andre samanhengar. Det svekker vanlege folks evne til å henge med på den politiske utviklinga – og det kan utvikle seg til å bli eit demokratisk problem.

Vi veit at vi allereie blir sterkt påverka av algoritmar i måten vi finn informasjon på internett på, og det blir enno meir forsterka med deepfakes.

Kva kan ein gjere når ein verken kan stole på det ein les, ser eller høyrer?

Statar på tvers av landegrenser har alt tatt til orde for å igangsette initiativ for å legge press på store selskap som styrer mykje av informasjonsflyten i dagens samfunn. FN skal kanskje og ha ei rolle i dette ved å sørge for internasjonalt regelverk på tvers av medlemslanda.

Heldigvis er fleire av dei store selskapa i ferd med å ta dette meir på alvor. Blant anna har Facebook skissert kvalitetssikrande tiltak for å skille ut deepfakes som er meint å forlede sine brukarar – og mange selskap har alt tatt i bruk verktøy for å kunne handtere utviklinga.

Ein varig kamp

Kjeldekritikk er eit nøkkelord for korleis vi kan avgrense konsekvensane deepfakes kan få. Ein av måtane er aktiv bevisstgjering – og igjennom bruken av populærkultur for å tydeleggjere kva utfordring dette representerer.

Southpark-skaparane har blant anna laga miniserien Sassy Justice, som brukar deepfake-teknologi for å sette inn kjendisar og politikarar i ein fiktiv verd til ein TV-reportar. Denne serien kan bidra til at fleire forstår omfanget og konsekvensane av tidsalderen vi lev i. Vi veit allereie kor mykje feilinformasjon som blir formidla i sosiale medier, og deepfakes kan bidra til å forsterke ein allereie faretruande trend.

Sabah Jassim, professor ved Universitetet i Buckingham, påpeiker i eit intervju at analyser av deepfake-videoar viser at per no er det mindre blinking i falske videoar, lyden kan passe dårleg med bevegelsane i leppene og ofte verker det som at det er krevjande å gi uttrykk for kjensler.

Foreløpig er det mogleg å skille dei falske frå dei ekte videoane, men etter kvart som mekanismar for å skille ut falske videoar utviklar seg, er det naturleg å tru at kvaliteten på deepfakes blir enda betre. Det vil mest sannsynleg bli ein varig kamp, der kunstig intelligens må trenast jamleg for å kunne vere i forkant.

LES OGSÅ:

Powered by Labrador CMS