Steeds meer worden oorlogen ook online uitgevochten. En hoewel propaganda van alle tijden is, gaat het tegenwoordig met behulp van deepfakes nog een flinke stap verder. De impact van deze vorm van desinformatie is niet gering. En de verwachting is dat het nog veel erger wordt.
Voor het eerst is de invloed van deepfakes bestudeerd in conflicten door video’s te onderzoeken over de oorlog in Oekraïne, die op X, voorheen Twitter, zijn geplaatst. Deepfakes zijn bewust gemanipuleerde video’s, waarbij een AI-programma meestal een nepgezicht maakt inclusief goed gelijkende mimiek en stem. Deze beelden en geluiden worden samengevoegd met een authentieke video, zodat er beeldmateriaal ontstaat van een gebeurtenis die bijvoorbeeld nooit heeft plaatsgevonden. De techniek is kwalitatief zo vergevorderd, dat de beelden niet of nauwelijks van echt te onderscheiden zijn.
Steeds meer impact
Onderzoekers van University College Cork (UCC) hebben zo’n 5000 tweets op X bestudeerd in de eerste zeven maanden van 2022, om te kijken hoe mensen op deepfake-video’s reageren. Ook waren de Ierse wetenschappers op zoek naar bewijs voor mogelijk verlies van vertrouwen bij de kijkers vanwege de mogelijkheid om een deepfake-video tegen te komen. De technologie waarmee de video’s worden gemaakt, is steeds makkelijker verkrijgbaar, dus het is erg belangrijk om de invloed hiervan in kaart te brengen.
‘Een nieuw soort wapen’
In de oorlog tussen Rusland en Oekraïne komt het gebruik van deepfake-video’s voor het eerst op grote schaal voor. De onderzoekers noemen meerdere voorbeelden in hun studie, waaronder een deepfake-clip van de Russische president Vladimir Poetin die de vrede aankondigt, videogamebeelden waarin de mythische gevechtspiloot ‘Het spook van Kiev’ opduikt en een gehackte Oekraïense nieuwssite waarbij een deepfake-video wordt uitgezonden van de Oekraïense president Volodymyr Zelensky, die zich overgeeft.
Aanjager van complotdenken
De gevolgen van deze deepfake-beelden zijn enorm. Volgens de onderzoekers zorgen de nepvideo’s ervoor dat socialmediagebruikers minder vertrouwen hebben in de authenticiteit van de oorlogsbeelden die hen worden voorgeschoteld op X. Sommige gebruikers zijn alle vertrouwen verloren en verzanden in een woud van complottheorieën. De Ierse studie levert voor het eerst bewijs dat makers van onlinecomplottheorieën deepfake-materiaal gebruiken om hun valse denkbeelden kracht bij te zetten.
Gebruikers kunnen bovendien nep en echt niet van elkaar onderscheiden. Ze trappen niet alleen in deepfakes, maar het werkt ook andersom. Mensen labelen authentieke video’s als nep, waardoor gerespecteerde nieuwsmedia massaal onterecht worden beticht van nepnieuws. De wetenschappers zeggen dat er meer gedaan moet worden om het bewustzijn hierover te vergroten bij nieuwsmakers en consumenten. Ook moeten nieuwsproducenten voorzichtig zijn met het labelen van verdachte video’s.
Ongezond scepticisme
“Veel van de desinformatie die we als team zijn tegengekomen in de dataset van X betrof het verkeerd inschatten van echte media als deepfake-video’s. Dit was een grote verrassing voor ons. Ook is er overdreven veel scepticisme bij sommige gebruikers van het platform over de herkomst van beelden op gerenommeerde nieuwsmedia. Deepfake-video’s wakkeren complotdenken en ongezond scepticisme bij hen aan. Hoe meer bewustzijn rond deepfake-video’s, des te minder vertrouwen er is in authentieke video’s. Aangezien er steeds meer deepfake-video’s online komen, zal dit steeds meer problemen gaan opleveren voor nieuwsmedia”, legt onderzoeker John Twomey uit. “De berichtgeving over deepfake-video’s moet gaan over de vraag wat deepfakes nu precies zijn, waarom en door wie ze worden ingezet, waar deze gevaarlijke beelden toe in staat zijn, en hoe de techniek zal gaan evolueren in de komende jaren.”
Uitgebreide uitleg
“Onderzoekers en commentatoren waarschuwen al langer over de mogelijkheden van deepfake-video’s om de waarheid te ondermijnen, desinformatie te verspreiden en het verlies van vertrouwen in de kwaliteit van nieuwsmakers aan te wakkeren. Deepfake-video’s zorgen ervoor dat we niet meer geloven in authentieke beelden, terwijl AI-gegenereerde nepvideo’s juist voor waar worden aangenomen door een aanzienlijk deel van de kijkers”, stelt onderzoeker Quaile Linehan.