THEMA | Synthetische Medien

Achtung, Deepfakes!

Synthetisierung mit schlechtem Beigeschmack
22. Oktober 2021, Kai Heddergott

Wenn etwas synthetisch hergestellt werden kann, ist man sich nie so sicher: Ist das jetzt echt – oder sieht es nur so aus? Das gilt zunehmend auch für Medieninhalte. Die weitgehende Digitalisierung in der Produktion und die Verfügbarkeit von Rechenkapazität und smarten KI-Anwendungen erlaubt besonders wirksame Formen medial verbreiteter Manipulation: sogenannte Deepfakes.

Hohes Schadpotenzial

Vor vier Jahren präsentierten Forscherinnen und Forscher der University of Washington ein kurzes Video, in dem der ehemalige US-Präsident Barack Obama mit seiner eigenen Stimme Dinge sagt, die der echte Politiker nie geäußert hat. 14 Stunden Referenzmaterial hatte das Wissenschaftsteam dafür ausgewertet, zudem war die aufwändige Programmierung einer Routine erforderlich, die passende Mundbewegungen zu jeglichem Text ermöglicht.

Doch egal, wie groß der Aufwand (noch) ist: Die denkbaren Fake-News-Szenarien mit einer zielgerichteten Verbreitung von Falschinformationen – vor allem via Social Media – liegen auf der Hand, nicht nur im direkten Umfeld von Wahlen.

Mit dem Projekt „The Deepfake Report“ hat ein Team aus Journalistenschülerinnen und -schülern sowie Studierenden der FreeTech Axel Springer Academy of Journalism & Technology Antworten auf zwei zentrale Frage gesucht: Kann man in wenigen Wochen Deepfake-Videos von Politikerinnen und Politikern erzeugen? Und wie reagieren sie darauf, wenn man sie damit konfrontiert? Herausgekommen ist eine Dokumentation, die ausführlich den aufwändigen KI-basierten Produktionsprozess beschreibt (www.thedeepfake.report).

Auch hier zeigt sich: Der Aufwand ist (noch) enorm. Sind die nötigen Tools aber erst einmal mit ausreichend Referenzmaterial „gefüttert“, dann sind den gefälschten Videos immer weniger Grenzen gesetzt. Das Projektteam hat sich aber nicht nur für die technologische Seite interessiert. Vielmehr wollten die jungen Kolleginnen und Kollegen auch erörtern, ob es auch „Deepfakes for good“ geben könnte.

Als Beispiel für ein „gutes“ Anwendungsszenario nennt die Dokumentation das per Gesichtserkennung automatisierte Unkenntlichmachen von Gesichtern mit dem Tool von „Brighter AI“. Dabei wird nicht wie herkömmlich gepixelt, sondern die Gesichtszüge werden minimal verfälscht. So können Fotos etwa von Demonstrationen ungefährdeter auf Social-Media-Plattformen hochgeladen werden. Das wahrt nicht nur Persönlichkeitsrechte der Gezeigten, sondern kann in autokratischen Ländern auch vor Verfolgung schützen, die bei unbearbeiteten Bildern sonst mittels Gesichtserkennung und KI möglich wäre.

Infokasten

Die Landesanstalt für Medien für Medien NRW (LfM) hat im Februar 2021 die deutsche Ausgabe des „Handbuchs zur Überprüfung von Desinformation und Medienmanipulation“ veröffentlicht (siehe auch JOURNAL 2/21). Das Handbuch stellt Websites, Tools und Verfahren vor, um Deepfakes, manipulativ eingesetzte synthetische Medien und andere medial verbreitete Desinformation zu erkennen.
Das „Verification Handbook“ kann kostenfrei als pdf bei der Medienanstalt NRW heruntergeladen werden:

bit.ly/VerificationHandbook-LfM-NRW

Journalistische Einordnung

Egal, ob „gute“ oder „böse“ Deepfakes: Beim Einsatz synthetischer Medien geht es unter anderem um Folgenabschätzung und um Kompetenzvermittlung – auch, um solche Manipulationsversuche aus journalistischer Perspektive richtig einordnen zu können (siehe dazu auch Interview „Das Wichtigste beim eigenen Faktencheck“).

Das ist auch für Christina Schamp, Innovationsmanagerin beim WDR, eine klare Zielsetzung: „Wir müssen uns kritisch mit dem Thema auseinandersetzen und wollen Wissen und Kompetenzen aufbauen, sodass zum Beispiel die Kolleginnen und Kollegen in den Redaktionen Deepfakes erkennen können und nicht darauf reinfallen.“ Um den Methoden des Gegners etwas entgegensetzen zu können, muss man sie kennen.

Im Report „Synthetische Medien – Zukünfte der Medienproduktion mit künstlicher Intelligenz“ des WDR Innovation Hub (siehe dazu auch „Alchemie der Zukunft“) liest sich das so: „Wir werden niemals Deepfakes herstellen, aber Deepfakes anderer enttarnen.“ Zudem verspricht der WDR, einen Rat von Expertinnen und Experten einzusetzen, die sicherstellen sollen, dass ethische Aspekte bei allen weiteren Entwicklungen mit bedacht werden.

Spaßfakes tragen zur Akzeptanz bei

Ein solches Expertenwissen scheint tatsächlich nötig. Denn zunehmend schwindet beim Publikum die kritische Perspektive auf gut synthetisierte Deepfakes. Dazu tragen verschiedene Faktoren bei: Viele virale Inhalte in den sozialen Medien sind klar erkennbare Ulk-Fakes, wie etwa die der ProSieben-Moderatoren Joko und Klaas. Auch Face-Apps tragen zur Akzeptanz bei – es ist ja zunächst nur ein Spaß.
Oft ist die Künstlichkeit sogar unmittelbar erkennbar. Wird sie aber in einen Kontext gestellt, ergibt sich ein scheinbar plausibles Narrativ. Das zeigte zum Beispiel das Gruppenselfie der Parteispitzen von Grünen und FDP, das die vier Beteiligten beim ersten Sondierungsgespräch nach dem Bundestagswahlkampf 2021 auf den eigenen Instagram-Profilen posteten, um eine gemeinsame Botschaft zu setzen. Flugs tauchte eine FaceApp-Animation auf, in der Annalena Baerbock, Volker Wissing, Christian Linder und Robert Habeck „We are family“ singen. Eindeutig ein (unterhaltsamer) Fake – aber in der aktuellen Situation auch eine Aussage mit Relevanz.

Natürlich sind solche Unterhaltungsformate, Satire-Clips und ähnliches etwas anderes als Fake-Videos, die erstellt werden, um aktuelle politische Debatten zu beeinflussen. Sie tragen aber zur schleichenden Gewöhnung an konstruierte Aussagen bei. Das bildet einen Teil des Nährbodens einer Akzeptanz für weitergehende Fakes – ob klassisch erstellt oder synthetisiert.

Im Deepfake einer Forschungsgruppe sagt der ehemalige US-Präsident Barack Obama Dinge, die er nie gesagt hat. | picture alliance/AP Photo | Uncredited
Im Deepfake einer Forschungsgruppe sagt der ehemalige US-Präsident Barack Obama Dinge, die er nie gesagt hat. | picture alliance/AP Photo | Uncredited

Auf einer anderen Ebene verfängt das gezielte Diskreditieren von Personen und Institutionen bei einem Teil der Bevölkerung, der Fake-Inhalten schnell folgt oder dieses Verächtlichmachen sogar möchte. Das haben die vergangenen Monate der Pandemie und des Bundestagswahlkampfs gezeigt. Allein das Streuen eines Zweifels nach dem Motto „Könnte es denn nicht vielleicht wirklich sein, dass…“, der sich durch ein synthetisches Video einer prominenten Person ergibt, reicht dafür oft aus. Und wer hinter Manipulationskampagnen unter Verwendung von Deepfakes steckt, lässt sich nicht immer recherchieren.

Das Ziel: Erkennbarkeit

Um dieser Entwicklung entgegenzuwirken, sollten „gute“ synthetische Medien erkennbar sein, um sie von Fakes unterscheiden zu können. So kennzeichnen Verlage, die zum Beispiel „Text-to-speech“-Inhalte anbieten, diese Funktion als künstlich erzeugten Inhalt. Ebenso wird bei der regelbasierten Zusammenstellung von Informationen etwa bei der Wahlberichterstattung oder Wetterprognosen meist eine Erläuterung hinterlegt, wie diese Inhalte entstanden sind. Und auch eine kommerzielle Lösung wie die oben erwähnte Transkript- und Text-to-speech-Plattform Descript hat ein eigenes „Ethics Statement“ auf die Website gestellt.

Auch WDR-Innovatorin Christina Schamp stellt klar: „Wir sehen vor, bei synthetischen Medien aus unserem Hause eine klar erkennbare Kennzeichnung vorzunehmen.“ Wie die Kennzeichnung allerdings in der programmlichen Praxis – so es die denn demnächst mit Unterstützung durch synthetische Medien geben wird – aussehen soll, scheint ebenso unklar wie die konkreten Anwendungen.

Bisher findet solche Kennzeichnung freiwillig statt, und sie ist auch keine Selbstverständlichkeit. Der DJV-NRW möchte sicherstellen, dass in Zukunft bei journalistischen Angeboten kein Zweifel aufkommen kann, ob Inhalte synthetisiert wurden. Mit einem Antrag zum diesjährigen Verbandstag (7. bis 9. November in Bochum) macht er sich für eine Kennzeichnungspflicht von KI-basierten und synthetisierten Medieninhalten stark.

Wie bei vielen technologischen Entwicklungen gilt: Das Instrument „synthetische Medien“ an sich ist nicht das Problem, sondern die konkrete Anwendung und die Frage nach der Einhaltung ethischer Standards. Deren konkrete Formulierung sollte stets dicht an der technologischen Entwicklung erfolgen – umso wichtiger ist es, dass Journalistinnen und Journalisten bei den erforderlichen Kompetenzen Schritt halten, um Deepfakes einordnen und beurteilen zu können. Das sollte Teil von Aus- und Weiterbildung aller Medienschaffenden werden. Damit die Kolleginnen und Kollegen dem Glaubwürdigkeitsverlust entgegenwirken und sich gut orientiert den ganz sicher vermehrt auftretenden Manipulationsversuchen mit synthetischen Medien entgegenstellen können.||

 

Ein Beitrag aus JOURNAL 5/21, dem Medien- und Mitgliedermagazin des DJV-NRW, erschienen im Oktober 2021.