4 minute read

Deepfakes 101 - potentialet

Og Faren

32. årgang

Advertisement

Nr. 2, november 2021

Oplag: 100 + webudgivelse

SAMSON c/o: Ansvarshavende redaktør, Cecilia Klitgaard Martinussen

Frederiksgade 50, 1. Th. 8000 Aarhus C mediemagasinetSAMSON@gmail.com

Redaktører:

Cecilia Klitgaard Martinussen Stine Møller Agesen

Skribenter:

Anne Frost

Christian Viggo Andersen

Isabella Dalum

Jeppe Olsen

Laura Engby

Rikke Hejlskov Fenger

Layout:

Anna Jetting

Caroline Wilton

Cecilie Højlund Simonsen

Emilie Brink Davidsen

Emilie Lading Manager

Line Benn Feder

Maria Hansen

Korrektur:

Alberte Fisker Søndergaard

Cecilia Klitgaard Martinussen

Helene Wulff Svendsen

Maria Hansen

Rikke Hejlskov Fenger Stine Møller Agesen

Forside:

Cecilia Klitgaard Martinussen Stine Møller Agesen

Næste nummer: Det næste nummer af SAMSON udkommer i efteråret 2023. Send en mail til mediemagasinetSAMSON@gmail. com, hvis din artikel eller andet indhold skal med.

SAMSON er et mediemagasin under Sammenslutningen af Mediestuderende (SAMS).

Magasinet udkommer to gange årligt på tryk og digitalt på www.issuu.com/ samsonnet

”President Trump is a total and complete dipshit” sagde Barack Obama i en youtubevideo på Buzzfeed. Eller gjorde han så egentlig det? I virkeligheden var det den amerikanske komiker og instruktør Jorden Peele, som havde skabt denne falske video af Barack Obama ved hjælp af den såkaldte ”Deepfake” teknologi. Med denne højtudviklede, AI-baseret teknik er det blevet muligt at manipulere overbevisende med video og lyd og skabe scenarier, som aldrig er sket. Bag de sjove videoer på nettet lurer nye trusler. Hvilke konsekvenser har deepfake-teknologi for det digitale mediemiljø og os som medieforbruger, når man nemt og troværdigt kan manipulere med virkeligheden?

Fake News er forvejen et voksende problem på sociale medier og endda på nogle nyhedsplatforme. Nu melder der sig en ny spiller på banen, som giver Fake News en helt ny mening: Deepfakes. En teknologi, som kan skabe artificielle, men dybt realistiske videoer, lyd og billeder af begivenheder, som aldrig er fundet sted. En teknologi, som bliver bedre og bedre. denne artikel vil jeg give dig et generelt overblik over Deepfakes oprindelse, teknik, aktuelle sager samt et indblik i de mulige konsekvenser af Deepfake.

Deepfakes oprindelse

De første Deepfakes dukkede op i 2017, da der begyndte at komme ”leakede” nøgenbilleder og pornografiske videoer frem af kendte kvinder, herunder Gal Gadot, Taylor Swift og Scarlett Johansson. Dette pornografiske indhold blev skabt af en bruger på internetforummet Reddit, hvor kendte ansigter blev redigeret ind på pornoskuespilleres kroppe, så det lignede, at de var en del af pornovideoerne. Sagen medførte, at Deepfakes blev bandlyst både på Twitter, Reddit og Pornhub. På trods af de tiltag, kan du stadig nemt finde og skabe din egen Deepfake porno ved bare en enkelt googlesøgning, hvor der både dukker apps og hjemmesider op. Dette er et af de tidligste eksempler, og det belyser bare en af de problematiske måder, som Deepfakes kan manipulere med virkeligheden.

Hvordan fungerer det?

Deepfakes er skabt gennem en type AI teknologi kaldet ”deep learning”, hvor man bruger et specifikt netværk kaldet Generative Adversarial Network (GAN). GAN består af to algortimer - en ’skaber’ og en ’diskriminator’. ’Skaber’-algoritmen skaber de falske, autentiske billeder, videoer eller lyd, mens ’diskriminator’-algoritmen forsøger at finde ud af, om det skabte indhold er ægte eller falsk.

For at starte processen fodrer man GAN-netværket med en hel masse data fx billeder og videoer af en bestemt person. Dette datasæt fungerer som et slags træningssæt, hvorfra ’skaber‘-algoritmen skaber de falske, autentiske billeder. ’Diskriminator’-algoritmen er stand til at udpege de fejl, som afslører, at billederne er falske.

På den måde lærer ’skaber’-algoritmen, hvilke fejl den skal rette. ’Diskriminator’-algoritmen bliver hele tiden ved med at teste de falske billeder op mod træningssættet. Over tid bliver ’skaber’-algoritmen bedre og bedre til at producere Deepfakes.

Deepfakes i dag

Sidenhen er Deepfake- teknologien blevet mere populær og let tilgængelig. Dog en mere humoristisk form, hvor man hurtigt kan gennemskue, at de er falske. Flere apps som Avatarfiy og Reface gør det muligt at sætte sit ansigt på kendte menneskers kroppe, og MyHeirtage har gjort det muligt at vække fotos til live ved hjælp af Deepfake teknologien. Men hvis du scroller gennem det sociale medie TikTok, har du med stor sandsynlighed mødt nogle meget realistiske Deepfake videoer af kendte ansigter som Tom Cruise og Kenua Reeves. Og læser man kommentarerne til videoerne, er flere overbeviste om, at det faktisk er Tom Cruise videoerne. Medier som Independent kalder videoerne ”skræmmende autentiske”.

På overfladen kan disse underholdende videoer på TikTok virke helt uskyldige. Men under gemmer der sig et potentiale til at bruge teknologien til noget knapt så uskyldigt. Skaberen af Tom Cruise videoerne, Chris Ume, fortæller selv: ”Men vi er også klar over, at vi bevæger os på en hårfin grænse, fordi deepfakes også kan benyttes til at sprede misinformation”.

Kilde: https://recfaces.com/articles/what-is-deepfake#2

Et værktøj til at skabe misinformation

Thenounproject.com

Den hårfine grænse mellem underholdning og misinformation blev overskredet, da der marts 2022 udkom en video af den ukrainske præsident Volodymyr Zelenskyj på en ukrainsk tv-kanal. I videoen opfordrede han Ukraines soldater til at overgive sig. Videoen var skabt ved hjælp af Deepfake-teknologien og lagt op af hackere. Selvom denne Deepfake er blevet kaldet ”uoverbevisende”, og ingen tilsyneladende lod sig narre, så er det langt fra altid tilfældet.

Ifølge The Wall Street Journal blev en Deepfake stemmeoptagelse 2019 brugt til at scamme en CEO til at udbetale 243.000$. Stemmen udgav sig for at være den tyske administrerende direktør hos deres forsikringsselskab. Optagelsen efterlignede tonen, pitchen og den tyske dialekt, hvilket gjorde, at CEO’en faldt fælden.

Endnu et eksempel fra virkeligheden er dokumentaren ”Roadrunner”. En dokumentar om den afdøde amerikanske tv-kok Anthony Bourdain, hvor der blev brugt en software til at skabe en AI-genereret version af Bourdains stemme til en del af filmen. Dette skabte kontroverser, idet producerne valgte ikke at informere seerne om brugen af AI, og samtidig rejste det etiske spørgsmål om, hvorvidt dette overhovedet skulle være muligt.

Siden Deepfakes’ fremkomst i 2017, har Deepfakes bevæget sig fra kendispornografi til verdensunderholdning og politik. Efterhånden som Deepfakes bliver mere almindelig, nemmere at producere og mere troværdig, vil konsekvenserne forstærkes. Udover at kunne bruges til afpresning og identitetstyveri, så kan man argumentere for, at Deepfakes kan blive brugt som et slagkraftigt, politisk våben. Tænk f.eks., hvis Zelenskys Deepfake bare havde været en smule mere overbevisende. En sådan video kunne have påvirket ukrainske soldater eller civile til at tro, at krigen var tabt og derved skabt uroligheder en allerede politisk højspændt konflikt.

This article is from: