Deepfakes - et undervisningsopplegg om kritisk medieforståelse
![]() |
Deepfakes utnytter kunstig intelligens for å lage videoer og lydinnhold det er svært vanskelig å avsløre som falskt. Dette undervisningsopplegget for elever i ungdomsskolen og på videregående går praktisk til verks for å øke kritisk medieforståelse om fenomenet deepfakes. – Teknologien gjør det stadig vanskeligere å avsløre falske nyheter. Å styrke ungdoms kritiske medieforståelse og gi dem konkrete tips til hvordan de kan avsløre denne formen for manipulasjon, er derfor svært viktig, sier Mari Velsand, direktør i Medietilsynet. Undervisningsopplegget er utarbeidet av Tenk, som er skoleprosjektet til Faktisk.no, på oppdrag fra Medietilsynet.
|
Deepfake-filmer og diskusjonsoppgaver
Deepfakes er en måte å bruke kunstig intelligens for å endre på video- og lydmateriale. Stemmer og ansikter ser ut som kjente mennesker i kjente omgivelser, men de er manipulert. Det kan være lett å lage og vanskelig å avsløre. Derfor er kjennskap til deepfakes viktig for å ha en god kritisk medieforståelse, og kunne avsløre falskt innhold.
Under følger fire filmer om deepfakes, med tilhørende oppgaver:
Film og oppgave 1: Dette er deepfake
- Hva er forskjellen mellom en deepfake og en vanlig video?
- Peter Brandtzæg sier at deepfakes begynte med gode hensikter, men så har det blitt oppdaget av folk med onde hensikter. Hva tror du han mener med det?
- Hva tenker du er fordelene med deepfakes?
Film og oppgave 2: Slik fungerer deepfake
- Hva kan være positive og negative sider ved at denne teknologien kan få folk til å snakke andre språk?
- Hvorfor tror du det lages lite deepfake i Norge?
- Hvordan kan deepfakes brukes for å lure deg?
Film og oppgave 3: Kan deepfake ha konsekvenser for oss?
- Hvordan kunne noen brukt deepfakes til å påvirke meningene dine før et valg?
- I videoen sies det at vi må jobbe med, og ikke kjempe mot den teknologiske utviklinga. Hvordan kan vi gjøre det?
- Hvordan tror du vi bruker deepfakes om ti år?
Film og oppgave 4: Slik avslører du en deepfake
- Hvordan kan du finne ut hvem som er avsender av en video som dukker opp i feeden din?
- Hvordan kan vi unngå å bli lurt av falske videoer på nett?
- Hva er den slemmeste deepfaken du kan se for deg?
Filmene du ser her, oppgavene og informasjonen er utarbeidet av Tenk, som er skoleprosjektet til Faktisk.no., på oppdrag fra Medietilsynet. Materiellet er finansiert av EU - gjennom Connecting Europe Facility.
Fra gøy til guffent på et blunk
Denne artikkelen og tilhørende oppgaver er beregnet for ungdom mellom 13 og 18 år.
Tekst: Martin Bergesen
– Jeg tror dette er den mest ubehagelige... Å gud, nei!
Gjennom webkameraet ser vi den svenske YouTube-stjerna Felix «PewDiePie» Kjellberg stirre på skjermen sin i avsky. Foran ham avspilles en video hvor han ser seg selv danse. Rettere sagt, han ser ansiktet sitt limt på den halvnakne vrikkende kroppen til det sosiale medie-fenomenet Belle Delphine, hun som er mest kjent for å ha solgt badevannet sitt for 30 dollar flaska. Og mens Delphine vrikker, mimer PewDiePie-fjeset til den avsindige sangen hun danser. Det ser – nesten – ekte ut. Kanskje øynene hans er litt for blå, men ansiktsmimikken er nesten uhyggelig lik.
PewDiePie har allerede ledd og tøyset seg gjennom andre videoer, hvor kreative moroklumper har plassert ham i hovedrollen både i «Aladdin» og «Captain America».
Nå virker svensken et øyeblikk genuint ukomfortabel. Han gjør en grimase og snur seg bort.
– Jeg vil ikke se dette.
Avansert kunstig intelligens
Hva gjør det med oss å se videoer hvor vi gjør og sier ting vi aldri kunne funnet på? Ler vi? Eller blir vi ubekvemme? Om ikke lenge kan dette være en like normal opplevelse for oss alle som det å tøyse med ansiktsfiltrene på Snapchat er i dag.
Fjesene og stemmene våre er blitt fritt vilt. De kan brukes av hvem som helst til hva som helst, enten det er for moro skyld eller for å skade oss. Dette er mulig på grunn av deepfakes, en teknologi som bygger på maskinlæring.
Ved å fôre en kunstig intelligens med videoer og bilder av et ansikt (for eksempel PewDiePie) kan en kunstig intelligens analysere det og lære seg hver lille nyanse og vinkel utenat. Deretter kan den spytte ut overbevisende kopier av fjeset hvor enn det skal være. Og dette begrenser seg ikke til kjendiser. Faktisk er teknologien på sitt mest imponerende når den ikke begrenser seg til virkelige mennesker.
![]() |
Fordi den kunstige intelligensen vet hvordan et menneskeansikt skal se ut, kan nettstedet This Person Does Not Exist nå poste bilde etter bilde av uhyggelig realistiske dataskapte fjes. Klarer du å se hvilke to av disse fire personene som ikke eksisterer? |
Billie Eilish-hologram
Det er ikke bare ansikter som kan klones – det finnes også deepfakes av menneskelig tale. Våren 2020 la den amerikanske programmereren Will Kwan ut en video av hvordan han brukte datakode som lå fritt tilgjengelig på nett til å skape en digital versjon av ansiktet og stemmen til popstjernen Billie Eilish.
Der ansiktet var lite overbevisende – Kwan animerte et stillbilde av Eilish ved å få det til å mime etter sitt eget ansikt – var talemålet hennes noe annet.
Kwan kjørte noen få sekunder av et Eilish-intervju gjennom en algoritme. Noen sekunders tale var alt maskinen behøvde for å lage en lavoppløselig variant av stemmen hennes. Ved å bruke et tekst-til-tale-program kunne Kwan deretter få henne til å si noen ganske tamme setninger:
– Wow. Føles godt å være i live. Takk, Will. Jeg setter virkelig pris på alt arbeidet du la inn i å få meg til å se og høres realistisk ut.
Det hele virker som et uskyldig eksperiment, helt til slutten av videoen. Kwan er sponset av et selskap som selger nettadresser, og i den forbindelse får han Eilish-hologrammet sitt til å snakke litt mer:
– I disse dager er det vrient å finne et godt domenenavn med de populære adressene, som .com og .net, sier popstjerna, før hun går videre til å reklamere for Kwans sponsor.
Et kommersielt budskap den virkelige Eilish ikke har samtykket til, framført av hennes stemme og ansikt. Hva ville Eilish selv tenke om hun så denne videoen? Er dette punktet hvor det hadde gått fra gøy til guffent?
Kan klone hvem som helst
Det Kwan gjør krever en del teknisk kompetanse, men denne teknologien blir stadig mer brukervennlig. Med de samme verktøyene som Kwan bruker kan også kjæresten din eller bestevennen din klones. Hvordan ville du reagert om de ringte deg opp og sa at de var i trøbbel og trengte penger, eller kanskje sa noe forferdelig om deg Og hva ville du tenkt om det dukket opp en video hvor du gjør og sier ting du vet du aldri ville gjort? Hvordan ville det vært om videoen spredte seg, og klassekameratene dine trodde på den?
Byttet ut Harrison Ford
Det er ennå en stund til det blir enkelt å lage en såpass overbevisende forfalskning, men umulig er det ikke. YouTube-kanalen Sham00k har for eksempel byttet ut fjeset til Harrison Ford i de gamle «Indiana Jones»-filmene med actionstjerna Chris Pratt.
Endringen er så godt gjennomført at folk som ikke kjenner de gamle filmene lett kan tro de ser Pratts nyeste film.
Dette krever mer maskinkraft og innsats enn det Will Kwan gjorde med Billie Eilish. For å oppnå dette resultatet oppgir Sham00k å ha brukt en kraftig datamaskin og latt den kunstige intelligensen analysere over 20.000 individuelle ansiktsbilder over en periode på 128 timer.
Å nå denne graden av realisme vil imidlertid bli enklere for folk flest i årene som kommer. Hva skjer da, om dette for eksempel tas i bruk av mennesker som ønsker å påvirke deg politisk ved å lage falske videoer av meningsmotstandere? Lar du deg lure, eller klarer du å luke ut deepfakene?I så fall, hvordan?
FASIT TIL BILDENE AV ANSIKTER: Alle fire er datafjes. Beklager. Om du vil teste deg på ordentlig kan du gå til nettstedet WhichFaceIsReal.com.
Diskusjonsspørsmål til "Fra gøy til guffent på et blunk"
- Hvorfor tror du Piewdepie opplevde det så ubehagelig å se selv i dansevideoen som Belle Delphin?
- Hvordan kan deepfake brukes til å ha det gøy?
- Hvordan kan bilder fra “"Thispersondoesnotexist.com" bli misbrukt?
- Hvorfor tror du Will Kwan valgte å lage filmen av Billie Eilish?
- Hva kan du gjøre for å unngå å bli lurt av en deepfake som ringer og ber om penger?
Et kappløp mellom maskin og menneske
Framtidens falske nyheter blir mer livaktige enn noen kunne ha forestilt seg. Denne langlesing-artikkelen går dypere inn i fenomenet deepfakes, og er først og fremst beregnet for eldre ungdommer, voksne og lærere.
Tekst: Martin Bergesen
I starten av Martin Scorsese-filmen "The Irishman", som dukket opp på Netflix i 2019, spiller Robert DeNiro en 36 år gammel mann som snart skal bli leiemorder for mafiaen.
DeNiro, 74 år gammel da innspillingen fant sted, ser definitivt ikke 36 år gammel ut i filmen. Joda, Hollywoods fremste effektfolk har prøvd å forynge ham, men tross millionbudsjett har 36-åringen på skjermen gammelmannsøyne og dype furer i munnvikene der han kommer rullende i lastebilen sin. Det siste innen filmmagi har sviktet. For å finne den nye magien må vi til YouTube-kanalen Sham00k.
Her ser vi samme scener fra samme film, med én viktig forskjell: Draget rundt munnen er mildere, og DeNiros blikk har gløden til en mann som ennå har 1990-klassikeren «Goodfellas» til gode. For å gni det litt ekstra inn er klippene sidestilt, så man kan sammenligne med originalen. Dette er ikke utført på millionbudsjett, men på gøy. Slik er kraften i deepfake-teknologien – et ektefødt
barn av kunstig intelligens.
Lærer ansikter utenat
Ved hjelp av avansert maskinlæring trenes en algoritme opp på tusenvis av bilder av en person, helt til den kan alle fasettene av ansiktet utenat. Deretter kan den lime dette ansiktet over et annet i en video. Dette kan gjøres ved hjelp av en vanlig datamaskin og fritt tilgjengelig programvare som, i sine enkleste former, kan brukes av hvem som helst etter en liten kom-i-gang-leksjon på YouTube.
Bruksområdene og kvaliteten på deepfakes utvikler seg i en rivende fart, og de blir stadig vanskeligere å
avsløre. Ta nettstedet This Person Does Not Exist, som poster bilde etter bilde av maskingenererte ansikter.
Om vi så dem uten å vite at de var falske, ville vi kanskje ikke stilt spørsmål ved hvorvidt folkene på skjermen faktisk eksisterer. Rett og slett fordi de ser ut slik vi forventer at et ansikt skal se ut. Vi står midt i et kappløp mellom teknologien og sanseapparatet vårt. Hvor bekymret bør vi være?
Gode og dårlige bruksområder
Det finnes mange gode bruksområder for deepfakes – alt fra nyskapende kunst og satire til billigere filmeffekter. Ofte er det gøy, som når vi kan se Sylvester Stallone spille i «Terminator 2» i stedet for Arnold Schwarzenegger.
Når deepfakes likevel skaper bekymring, er det på grunn av de mange problematiske brukstilfellene, som utpressing, mobbing og villedning. Kjendiser og ekskjærester kan fremstilles i seksuelle situasjoner uten samtykke, mens ansiktet til et barn kan limes inn i et voldelig videoklipp og sendes som trussel til foreldrene.
Og, der enkeltmennesker kan traumatiseres, kan det på på samfunnsnivå påvirke både juridiske og demokratiske prosesser. Et «avslørende» klipp av en politiker delt i sosiale medier et par dager før et valg rekker kanskje ikke avkreftes før etter valget. Og hva skjer med bevisførsel når man kan påstå at et videoklipp av politivold er forfalsket?
Lang lureri-tradisjon
Manipulerte og manipulerende medier har vært med oss til alle tider. Dokumentsamlingen «Sions vises protokoller» fra starten av 1900-tallet ble gitt ut som bevis på at jødene konspirerte for å ta over verden. Ifølge Store Norske Leksikon ble dokumentene avslørt som en antisemittisk fabrikasjon allerede i 1921, men ideene lever likevel videre den dag i dag. Josef Stalin fikk på sin side fjernet tidligere medarbeidere fra offisielle bilder når de ikke lenger var innei varmen. I dag fjerner influensere gjerne en centimeter eller to av midjemålet på Instagram.
Ikke alle falsknerier forsøker å narre oss. På nettet var mp3-filene «Bushwhacked 1 & 2» tidlige viralhits i 2001 og 2003. Komiker Chris Morris hadde klippet ut ord og fraser fra talene til daværende president George W. Bush for å stokke dem om til satiriske remikser. Her lød lovnader om å gi alle amerikanske barn tre atomvåpen hver, samt dystre beskjeder som denne: «And tonight I have a message for the people of Iraq: Go home and die.»
Å katalogisere og sammenstille lydopptakene av Bush må ha krevd en god porsjon tid og talent - det lød dønn overbevisende. Klippet vakte da også oppsikt, men på datidens nett spredte det seg saktere enn hva som er mulig i dagens sosiale medier. Talen var også for surrealistisktil å bli tatt for noe annet enn satire. Men hva skjer når hvermannsen kan lage sin egen «Bushwhacked» på laptopen?
Kopierer stemmebåndene
På samme måte som at maskiner kan lære seg ansiktsformer, kan de nå også klone talemåtene og særegenhetene i folks stemmer. På YouTube finner vi kanalen Vocal Synthesis, i sin helhet dedikert til å produsere deepfakes av lyd. Her legges ord i munnen til alt fra rapperen Jay-Z (som forsøkte – uten hell – å få forfalskningen fjernet) til nåværende og forhenværende presidenter.
Først fores maskinen med stemmeopptak av Bush for å lære ham å kjenne. Så limes teksten til hitlåta «In Da Club» av rapperen 50 Cent inn i et tekst-tiltale-program. Og værsågod.
– I am into havin’ sex, sier falske-Bush.
– I ain’t into makin’ love.
I lydklippet halter Bush gjennom teksten, og lyden knaser som om den er spilt inn i en bøtte – bivirkninger av at dataprosessen ennå ikke er presis nok.
Men det er stemmen til Bush. Og dette er ikke en remiks av ting han har sagt. I stedet er stemmebåndene hans nå blitt som et piano alle kan spille på.
Bush er bare ett eksempel. Telefonnummer kan også forfalskes. Hva svarer vi når en god venn plutselig ringer og ber oss vippse over et kjapt lån?
Digitale marionetter
Ansikter kan trakteres på samme måte som stemmer. Der en god deepfake kan kreve tusenvis av bilder som kildemateriale og dagevis med arbeid, kan selv ett stillbilde få ganske livaktig mimikk. Et eksempel på veldig lavterskel-deepfake er You-Tube-kanalen Morgi Memes. Den har postet en video hvor alt fra dronning Elizabeth til Leonardo DiCaprio synger 80-tallshiten «Never Gonna Give You Up» av Rick Astley.
Videoen er i bunnsjiktet av deepfake-hierarkiet. Ansiktene strekker seg i unaturlige former, eller ter seg som stive masker. De er lette å avsløre, fordi sanseapparatet vårt har forsvarsmekanismer mot slikt. Kunstig fremstilte ansikter og stemmer påkaller gjerne «den uhyggelige dalen»-effekten («uncanny valley») – følelsen av at noe er galt. Det er noe dødt over øynene. Stemmen er for robotisk.
Gode deepfakes har imidlertid potensial til å forbigå dette forsvaret. Jo bedre maskinlæringen blir, jo mer forsvinner de synlige kjennetegnene på forfalskning. Hva skjer når vi ikke lenger kan stole på det øynene og ørene våre forteller oss?
Provoserende politikere
De fleste av oss har allerede en viss skepsis til ting vi ser i media, enten det er de redigerte livene til vennene våre eller nøye planlagte utspill fra politikere. Likevel lar mange seg lure av falske nyheter, hvor selv en uærlig sammenstilling av tekst og bilde kan få sinnene i kok.
![]() |
Et nylig eksempel er en post med bilde av Erna Solberg i militærhjelm sammen med en soldat, og en påstand om at hun vil ha utvidede fullmakter til å sette inn den norske hæren mot folket. Egentlig var det snakk om et lovforslag som ga Forsvaret adgang til å pålegge restriksjoner for egne ansatte i smittevernsøyemed. |
Nå er deepfake videoer og lydklipp – gjerne i kombinasjon – modne for verktøykassen til dem som produserer denne typen falske nyheter. Da kan det dukke opp videoer i Facebook-feeden hvor en politiker tilsynelatende sier noe vilt provoserende, noe som så spres og gjør vedkommende til gjenstand for allmenn fordømmelse.
Å undersøke og avkrefte hvorvidt noe slikt er fabrikert eller ei er mulig, men kan være både knotete og tidkrevende. Samtidig får den kjedelige sannheten sjelden samme spredning som den medrivende løgnen.
Denne dynamikken sår uvisshet, og skaper et
mulighetsrom for politikere og andre som vil påstå «det sa jeg aldri», selv når ordene deres er tatt opp på video. Det samme ser vi allerede med stillbilder, som når britiske Prins Andrew avviser ektheten av bildet hvor han har armen rundt en ung jente som senere har påstått å ha blitt tvunget til å ha sex med prinsen.
Maskin mot maskin
Som med falske nyheter ellers er det å utvise kildekritikk fortsatt den beste motgiften, både når løgner spres og når sannhet benektes. Er det for godt til å være sant?Stoler vi på den som har postet dette? Hva er konteksten? Men: Dette krever mye.
Vi skal være årvåkne og kritiske til alt av medieinntrykk vi scroller oss gjennom en sen kveldstime, og vi skal være skeptiske til venner vi ellers stoler på når de deler noe på Facebook. Den sunne fornuften, påskrudd til alle døgnets tider - høres ikke det litt utmattende ut?
Kanskje er det bedre å bekjempe ild med ild. Maskinlæring kan nemlig også snus til å avdekke hvorvidt en video har blitt klusset med. Microsoft annonserte nylig et verktøy døpt Video Authenticator, beregnet spesielt på valget i 2020. Med en kunstig intelligens trent opp på å vurderenesten identiske videoer, hvor én er en deepfake og én er originalen, vil verktøy som dette forhåpentligvis automatisere avsløringen.
Der et menneskeblikk lar seg lure, kan maskinblikket fokusere på å små uregelmessigheter i bildekodingen. Om videoer går gjennom et slikt filter før de slippes løs på sansene våre, kan de kanskje stanses, eller
merkes tydelig som manipulerte. Men den samme lærdommen som muliggjør verktøyet, kan også brukes til å styrke deepfake-teknologien.
Kappløpet fortsetter.
Fakta om ungdom og falske nyheter
- 87 prosent av 9–18-åringene som er på sosiale medier, leser, ser eller hører nyheter på denne plattformen. Halvparten av 9-10-åringene bruker sosiale medier for å holde seg oppdaterte på nyheter, mens nesten alle i aldersgruppen 15-18 år gjør det samme.
- 67 prosent av 13–18-åringene har i løpet av det siste året sett en nyhet de mistenkte var falsk, mens 47 prosent av hele befolkningen svarte det samme.
- 66 prosent av 13–18-åringene som det siste året har sett en nyhet de mistenkte var usann, så dette sist på sosiale medier.
- 60 prosent av 13–18-åringene som det siste året kom over en nyhet de mistenkte var falsk, gjorde ingenting med det.
Hvordan kan man avsløre at innholdet man ser er falskt?
Før du ser på selve innholdet, kan det være lurt å stille følgende spørsmål:
- Hvor kommer innholdet fra?
- Hvem er avsender?
- Hva kan du finne ut om avsender?
- Hvilke hensikter ligger bak?
Når du ser innholdet, kan det være lurt å spørre seg:
- Kan andre kilder bekrefte innholdet?
- Er det noe i innholdet i filmen du stusser over?
- Er det noe teknisk som skurrer?
- Hva sier magefølelsen din?