Der Ukrainekrieg auf TikTok – und die Gefahr von Deepfakes als Kriegswaffe

Im Zuge der fortschreitenden Digitalisierung verändern sich auch Konfliktdynamiken und die Perspektiven auf Krieg. Dies gilt insbesondere für soziale Medien, die eine zentrale Rolle in der Kommunikation über Konflikte, aber auch als ein Ort der Austragung von Konflikten eingenommen haben. Diese Auswirkungen werden besonders seit dem Angriffskrieg auf die Ukraine sichtbar: so spricht die New York Times beispielsweise vom „TikTok Krieg“. Der folgende Artikel wird erläutern, inwiefern der Ukrainekrieg auf TikTok die Gefahr für die Erstellung weiterer Deepfakes als Kriegswaffe erhöhen kann.

Deepfakes sind synthetische audio-visuelle Medien, die meist mit Hilfe von KI (Künstlicher Intelligenz) erstellt werden (Pawelec/Bieß 2021). Deepfakes werden in verschiedenen Bereichen von unterschiedlichen Akteur*innen verwendet. Ihre ethischen Implikationen sind abhängig von ihrem Anwendungskontext, die Auswirkungen sind vielfältig. Die meisten Deepfake-Videos beruhen bislang auf der Deep Learning-basierten FaceSwap-Technik. Seit 2017 ist eine breite Anwendung von Deepfakes zu verzeichnen. Ursprünglich wurden Deepfakes überwiegend von bekannten Persönlichkeiten erstellt, da hierfür viele Trainingsdaten zirkulieren. Grund hierfür ist die Menge an vorhandenen Bildern im Internet, die als Datensatz dienen, um die KI zu trainieren. Am Beispiel der Seite „thispersondoesnotexist.com“ ist die rasante Verbesserung von Deepfakebildern sehr gut zu erkennen: Waren vor wenigen Jahren gefälschte Bilder noch mit dem bloßen Auge aufgrund ihrer verpixelten Auflösung als Fälschung zu erkennen, sind Deepfakebilder inzwischen nicht mehr mit bloßem Auge identifizierbar. Per Mausklick werden inzwischen auf dieser Seite laufend neue Bilder von Personen erstellt, die nicht existieren. Da die benötigten Rechnerkapazitäten beständig sinken und das technische Wissen steigt, werden Deepfakes qualitativ stetig besser. Inzwischen können Deepfakes aber auch zunehmend von Privatpersonen erstellt werden.

Seit Ausbruch des Ukrainekrieges rücken Deepfakes zunehmend in das Zentrum der Debatte über Cyberkriege. Ende Juni entflammte eine Debatte über Deepfakes, als Franziska Giffey in eine Videokonferenz mit einem „falschen Klitschko“ trat und die erste Vermutung war, dass es sich hierbei um einen Deepfake handele. Neben Giffey waren wohl auch andere Bürgermeister*innen von Berlin, Wien, Madrid, Warschau und Budapest durch den „falschen Klitschko“ getäuscht worden. Bekannt ist inzwischen, dass es kein Deepfake im technischen Sinne war, aber das Prinzip sehr ähnlich ist: die Verantwortlichen arbeiteten mit einem geschickt geschnittenen Klitschko-Interview. Verantwortlich war wohl ein russisches Comedy-Duo, sie kopierten Bildelemente aus einem älteren Interview, anschließend arrangierten und vertonten sie dies in ein neues Video.

Aber auch tatsächliche Deepfakes wurden gezielt als Propagandawaffe eingesetzt, um Desinformationen zu verbreiten und damit Einfluss auf das Kriegsgeschehen zu nehmen. So kursierten im März 2022 zwei Deepfakes, die im Ukrainekrieg großes Aufsehen erregten. In einem erklärte Putin den Krieg gegen die Ukraine für beendet, im anderen rief Selenskyj seine Soldat*innen auf, ihre Waffen niederzulegen. Diese Videos wurden sehr schnell als Deepfake identifiziert und entweder als Fake auf den Veröffentlichungsplattformen gekennzeichnet oder gelöscht. Am Beispiel des Putin-Deepfakes wurde erkannt, dass das Video auf Putins Rede an die Nation vom 21. Februar basierte, denn sowohl das Schulterzucken als auch seine Handbewegungen waren auf beiden Videos identisch. Im Deepfake wirkten seine Kopf- und Mundbewegungen abgehackt und roboterartig. Bislang sind bei Video-Deepfakes häufig auch die Schatten nicht synchron zu den Bewegungen der abgebildeten Personen. Allerdings ist es nur eine Frage der Zeit, bis auch Video-Deepfakes nicht mehr mit bloßem Auge erkennbar sein werden. Denn je mehr Datensätze eine KI zur Verfügung hat, desto besser kann sie entwickelt werden.

Viele Social Media-Plattformen wie zum Beispiel TikTok1, fungieren inzwischen als Videoportale. Vergleicht man die Entwicklung von Deepfake-Bildern auf thispersondoesnotexist.com, lassen sich somit durch eine Analyse dieser Pfadabhängigkeiten Aussagen über einen möglichen Trend für Video-Deepfakes ableiten.

Ähnlich wie bei der Verbesserung von Bildmaterialen von bekannten Persönlichkeiten im Netz, bietet TikTok eine offen zugängliche Quelle für Deepfake-Entwickler*innen, Datensätze aus den zahlreich veröffentlichten Videomaterialen zu generieren, wodurch die Erstellung von hochwertigen Deepfake-Videos seit der Gründung solcher Videoplattformen rasant vorangetrieben wird. Wird in der Folge des Angriffskriegs auf die Ukraine nun TikTok primär als Medium der Berichterstattung von Betroffenen im Ukrainekrieg verwendet, wird hier gleichzeitig Datenmaterial über Krieg generiert und öffentlich zugänglich gemacht.

Ich versuche dies anhand eines hypothetischen Beispiels zu verdeutlichen:

Nehmen wir an, Raketenangriffe, wie beispielsweise auf das Einkaufszentrum im ukrainischen Krementschuk, werden mit digitalen Endgeräten aus verschiedenen Perspektiven gefilmt. Anschließend werden diese Videos auf TikTok veröffentlicht. Welche Auswirkungen können durch solche Videos entstehen?

Perspektivisch kann dieses Videomaterial als Datensatz verwendet werden, um weitere Kriegs-Deepfakes zu erstellen. Bislang werden Deepfakes meist dafür verwendet, Personen und ihr Gesagtes zu fälschen. In der Zukunft kann es aber denkbar werden, dass nicht mehr nur Zielpersonen (wie Putin oder Selenskyi) im Zentrum der Fälschung stehen, sondern auch Videomaterial von Kriegsverbrechen gefälscht wird, um es als Propaganda zu nutzen. Je mehr Videomaterial zu Kriegsverbrechen öffentlich zugänglich ist, desto besser wird ihre Qualität. Davon lässt sich ableiten, dass wir in zukünftigen Kriegsgeschehnissen eine Zunahme von zirkulierenden Deepfakes zu erwarten haben, die eine Unterscheidung zwischen wahren und falschen Kriegsgeschehnissen erschweren. Denn schon jetzt ist ein Faktencheck in Kriegsgebieten nur erschwert umsetzbar. Gegenwärtig besteht bereits die Gefahr, dass Plattformen als Kanal für Desinformation genutzt werden. Es ist bereits möglich, dass Videos aus einem Kontext in einen anderen übertragen werden, oder Bilder verändert werden, ohne diese zu kennzeichnen. Zudem kann die Gefahr bestehen, dass Videomaterialien „fälschlicherweise den aktuellen Krieg in der Ukraine zeigen sollen“, obwohl Bild- oder Tonmaterialien aus einem anderen Kontext stammen (Reveland 09.03.2022). Ein Beispiel ist ein Video, „auf dem ein Reporter vor mit Leichensäcken abgedeckten Personen steht. Es soll angeblich ukrainische Leichen zeigen“(ebd.). Laut Reveland stammte dieses Video jedoch von „einem Klimaprotest in Österreich im Februar“ (ebd.). Die Motivation für solche Falsch- und Desinformationen kann dabei vielgestaltig sein. Es kann sich schlicht um eine Verwechslung handeln, um den fehlgeleiteten Versuch mehr Unterstützung für die Ukraine zu mobilisieren oder um russische Propaganda, die echte Berichterstattung untergraben möchte.

Jede dieser Varianten untergräbt eine positive Auswirkung der Digitalisierung des Krieges: diese Videos können zur Dokumentation von Kriegsverbrechen verwendet werden, wenn sie auf ihre Echtheit geprüft werden können. Berichterstattung ist folglich nicht mehr nur auf Kriegsreporter*innen verengt, wodurch die Berichterstattung vielfältiger sowie unmittelbarer erfolgen kann. Denn Kriegsreporter*innen können nicht alle Orte eines Konflikts abdecken. Darüber hinaus kann die Berichterstattung von Kriegserlebnissen über Social Media Empathie, Anteilnahme und Verständnis für Betroffene des Krieges stärken.

Hier wird die Ambiguität von Technik deutlich. Technik ist nicht neutral und hat je nach Anwendungskontext verschiedene ethische Implikationen. Besonders in Kriegszeiten wird hier ein Dilemma sichtbar, indem einerseits Social Media Zugänge für Betroffenen zur Öffentlichkeit und die Dokumentation von Kriegsverbrechen ermöglicht und gleichzeitig ihre Daten für künftige Desinformationszwecke wie Deepfakes als Kriegswaffen missbraucht werden können.

Eine Möglichkeit zu überprüfen, ob es sich bei Videos um Deepfakes handelt, bieten Webseiten für Deepfake Detektionen wie Deepware Scanner. Darüber hinaus braucht es zudem eine breite Debatte über Regulierungsmöglichkeiten (Pawelec/Bieß 2021) von schädigenden Deepfakes zwischen Plattformbetreiber*innen, Gesetzgebung, inter-, supra- und nationaler Politik (wie zum Beispiel der Verhaltenskodex zur Bekämpfung von Desinformation der EU) und eines strukturellen Ausbaus von Medienbildung. Zudem braucht es eine Stärkung von Konfliktsensibilität für alle Akteur*innen, die sowohl über Krieg berichten als auch in Konfliktkontexten agieren.

Quellen:

Pawelec, Maria / Bieß, Cora (2021): Deepfakes. Technikfolgen und Regulierungsfragen aus ethischer und sozialwissenschaftlicher Perspektive. Mit einer interaktiven Lehreinheit von Cora Bieß. Kommunikations- und Medienethik 16 Nomos. Baden-Baden.

Reveland, Carla (09.03.2022): faktenfinder. TikTok. Brutale Kriegsbilder statt lustiger Videos. Online verfügbar unter: https://www.tagesschau.de/faktenfinder/ausland/ukraine-russland-tiktok-101.html

1 TikTok ist eine Plattform in Form eines Videoportals. TikTok wird vom chinesischen Unternehmen ByteDance betrieben und ist ursprünglich für ihre plattformspezifischen Formen in Bezug auf Lippensynchronisations- oder Tanzvideos bekannt geworden. Im Unterschied zu anderen Plattformen weist TikTok, als soziales Netzwerk, zudem eine Besonderheit auf: Durch die Audiofunktion auf TikTok können User*innen den Ton des ursprünglichen Videos einfach entfernen und beliebige Tonspuren für ihre eigenen Videos verwenden. Dies bietet sehr niederschwellig Möglichkeiten zu einer Manipulation (Reveland 09.03.2022).