THEMA | KI im Journalismus

Andere Bilder

KI ändert unseren Blick auf die Fotografie
14. Juni 2023, Damian Zimmermann
Menschen, die es nicht gibt, schauen auf Kunst, die es nicht gibt: Wir werden lernen müssen, Bilder anders anzuschauen. | Bild: Damian Zimmermann/mit Midjourney generiert
Menschen, die es nicht gibt, schauen auf Kunst, die es nicht gibt: Wir werden lernen müssen, Bilder anders anzuschauen. | Bild: Damian Zimmermann/mit Midjourney generiert

Nur fünf Tage nachdem ChatGPT am 30. November 2022 für die öffentliche Nutzung freigeschaltet wurde, hatten sich bereits eine Million Nutzer angemeldet. Auch in den deutschen Medien wurde das Thema sehr schnell aufgegriffen, vorgestellt und diskutiert: Welche Auswirkungen hat diese Künstliche Intelligenz auf Gesellschaft, Politik, Bildungssystem und Journalismus? Neben den Möglichkeiten dieser Technologie, die scheinbar aus dem Nichts aufgetaucht war, standen Sorgen und Ängste im Vordergrund, und das Gespenst der Arbeitsplatzvernichtung machte seine Runde.

Titelthema KI

Nahezu unbeachtet blieb in der Diskussion allerdings eine andere Entwicklung im Bereich der Künstlichen Intelligenz: die Generierung detaillierter und fotorealistischer Bilder. Bereits Monate vor ChatGPT waren Programme wie Midjourney, DALL-E 2 und Stable Diffusion für die Öffentlichkeit verfügbar – und wurden auch genutzt. Eine inhaltliche Diskussion um Chancen, vor allem aber auch um Gefahren fand – wenn überhaupt – höchstens innerhalb der Fotografieszene statt. Und auch dort wurde sie nur von wenigen angetrieben und von anderen kaum beachtet.

Subtil gewarnt

Dabei hatte bereits vor zwei Jahren der Norweger Jonas Bendiksen subtil und überzeugend auf die Gefahren aufmerksam gemacht. Im April 2021 veröffentlichte er das Fotobuch „The Book of Veles“, dann zeigte er diese Bilder beim renommierten Fotofestival in Perpignan, ein Treffpunkt internationaler Fotojournalistinnen und -journalisten. Inhaltlich klagt „The Book of Veles“ die Fake-News-Industrie in Nordmazedonien an – und zeigt dabei selbst bloß gefälschte Fotografien, deren Protagonistinnen und Protagonisten am Computer generiert sind.

Niemandem fiel die Fälschung auf, und als Bendiksen sich sechs Monate nach der Buchveröffentlichung schließlich selbst entlarvte, führte es lediglich zu einem kurzen Raunen in der Szene der Fotografinnen und Fotografen. Kaum vorstellbar, was für einen Skandal eine vergleichbare Vorgehensweise in der schreibenden Zunft ausgelöst hätte. 2022 wurde Bendiksens Arbeit sogar mit dem World Press Photo Award ausgezeichnet, weil das Projekt den Betrachter auffordere, „die Leichtigkeit zu hinterfragen, mit der Fakenews produziert, verbreitet und geglaubt werden können“. Und dennoch: So richtig ernst nehmen wollten das Thema zu diesem Zeitpunkt offensichtlich die wenigsten.

Der Papst in Daunenjacke

Das änderte sich erst, als am 20. März 2023 vermeintliche Fotografien auftauchten, die eine angebliche spektakuläre Verhaftung Donald Trumps zeigten. Wenige Tage später folgten Bilder von Papst Franziskus in einem hippen, weißen Daunenmantel der Luxus-Modemarke Balenciaga auf den Social-Media-Kanälen. Jetzt bekam eine breite Öffentlichkeit einen Eindruck davon, was sich sowohl technisch als auch gesellschaftlich anbahnt – schließlich haben zahlreiche Menschen vor allem die Papst-Bilder zunächst für real gehalten.

Ryan Broderick, Autor und Herausgeber des mit dem Webby Award ausgezeichneten „Garbage Day“-Newsletters, bezeichnete sie deshalb auch als „den ersten echten KI-Fehlinformationsfall auf Massenebene“. Als das deutsche Satire-Magazin Der Postillon am 27. März einen Beitrag mit dem Titel „Weil jetzt eh jeder Fotos für Fake halten würde: Papst gönnt sich geile Winterjacke“ veröffentlichte, war die Verwirrung für manche perfekt: Sind die Franziskus-Bilder nun echt oder doch nicht?

Nein, sind sie nicht. Und wir können von Glück reden, dass es sich bei den modischen Papst-Bildern lediglich um einen nicht politisch-motivierten Gag des Amerikaners Pablo Xavier handelt: Während eines Drogentrips hatte er zum Zeitvertreib ein wenig mit Midjourney herumgespielt und das Ergebnis dann gepostet, sodass es schließlich viral ging. „Ich fand es einfach komisch, den Papst in einer lustigen Jacke zu sehen“, sagte er in einem Interview mit Buzzfeed News. Weniger lustig, sondern eher erschreckend ist hingegen, dass der 31-jährige Xavier kein IT-Experte aus dem Silicon Valley ist, sondern ein einfacher Bauarbeiter aus Chicago, denn es zeigt, wie einfach die Technik von jedem zu bedienen ist.

Von da an überschlugen sich die Ereignisse, fast wöchentlich meldete sich ein Verband oder eine Organisation zu Wort: mit einer Stellungnahme zum Umgang mit KI-generierten Bildern, mit einer Forderung an Fotografinnen und Fotografen oder gleich an die Politik. Ende März war es der Fotografen-Verband Freelens, am 4. April wurde das Petitionspapier „KI aber fair“ veröffentlicht, das auch der DJV unterzeichnet hat; am 20. April zog der Deutsche Fotorat nach. In vielen Punkten ähneln sich die Stellungnahmen und Forderungen: Sie verlangen eine Kennzeichnungspflicht von KI-Bildern und eine Vergütung der Urheberinnen und Urhebern aus den Bereichen Fotografie, Musik, Literatur oder Journalismus, mit deren Arbeiten die Künstlichen Intelligenzen zu Trainingszwecken gefüttert werden (siehe dazu auch „Es wird konkret“).

In dieser Zeit veröffentlichte die Content Authenticity Initiative auch die sogenannten „Do Not Train“-Zertifikate. Diese können Fotografinnen und Fotografen in ihre Bilder einbetten, damit KIs gar nicht erst mit ihnen trainiert werden.

Sensibilisierte Öffentlichkeit

An diesem Punkt im Frühjahr 2023 war die Öffentlichkeit also endlich auch für Bild- und nicht mehr nur für Text-Generatoren sensibilisiert. Öl ins Feuer goss schließlich der Berliner Künstler Boris Eldagsen. Der hatte sein KI-generiertes Bild „The Electrician“ beim renommierten Sony World Photography Award in der Kategorie „Kreativ“ eingereicht und gewonnen, obwohl er immer offen gelegt hatte, dass sein Bild keine Fotografie sei. Bei der Preisverleihung in London am 13. April lehnte er den Preis vor versammeltem Fachpublikum ab und forderte stattdessen eine öffentliche Debatte zum Umgang mit KI-Bildern ein.

Das Echo der internationalen Medien war enorm, und plötzlich stürzten sich auch die großen Nachrichtenmagazine und Zeitungen sowie das Fernsehen auf das Thema.

Doch berichten Medien lediglich über die Möglichkeit, fotorealistische Bilder zu generieren, oder beschäftigen sie sich auch selbst damit und mit der Frage, was daraus folgt? Wie blicken Bildjournalistinnen und -journalisten auf die Situation, in welchen Bereichen können KI-Bilder sinnvoll eingesetzt werden, und was macht das alles mit der journalistischen Glaubwürdigkeit?

Guidelines bei der dpa

Die Deutsche Presse-Agentur hat am 3. April ihre Guidelines für Künstliche Intelligenz veröffentlicht. Darin begrüßt sie den Einsatz von KI ausdrücklich: „Die dpa setzt KI zu verschiedenen Zwecken ein und steht dem verstärkten Einsatz von KI aufgeschlossen gegenüber. KI wird helfen, unsere Arbeit besser und schneller zu machen – immer im Sinne unserer Kunden und unserer Produkte.“ Unter Punkt 5 steht zudem: „Die dpa ermuntert alle Mitarbeiterinnen und Mitarbeiter, sich offen und neugierig mit den Möglichkeiten von KI zu befassen, Tools zu testen und Vorschläge für die Nutzung in unseren Workflows zu machen.“ Das klingt nach Unterstützung der redaktionellen Arbeit, auf die auch verschiedene Medienhäuser verweisen (siehe dazu auch „Es wird konkret“), aber es bleibt offen, ob sich die Guidelines auch auf Bildgeneratoren beziehen.

Erst auf Anfrage gibt der Leiter der Konzernkommunikation, Jens Petersen, die knappe Antwort: „Jedes Bild, das die dpa herausgibt, unterliegt der Verifizierung der Redaktion. Als Nachrichtenagentur haben wir dafür besonders hohe redaktionelle Standards und klare Regeln. Grundsätzlich ist es nicht erlaubt, KI-generierte Bilder anzuliefern. Bislang hatten wir noch keinen Fall.“

Die Prüfung von Bildern erfolge hauptsächlich auf zwei Wegen, erklärt Petersen. „Erstens eine redaktionelle inhaltliche Prüfung: Hat dieses Ereignis zu einem bestimmten Zeitpunkt, an einem bestimmten Ort stattgefunden? Zweitens eine technische Prüfung anhand der EXIF-Daten (Kamera, Aufnahmezeitpunkt, Brennweite…) des JPG. In Zweifelsfällen arbeiten wir auch eng mit unserer Faktencheck-Redaktion zusammen.“

Es geht um den Wirklichkeitsbezug

Diese klare Positionierung findet der ehemalige Kriegsfotograf Christoph Bangert gut. Er gehört heute zum Vorstand der Kölner Fotografengenossenschaft laif und ist Professor für Fotografie an der Hochschule Hannover. Er zieht eine ganz klare Grenze: „In der journalistischen Fotografie würde ich niemals KI einsetzen. Ich beschäftige mich mein ganzes Berufsleben lang mit Dokumentarfotografie, visuellem Journalismus und Autorschaft. Da geht es nicht um die Wahrheit, aber es geht um einen Wirklichkeitsbezug. Wir erzählen von echten Menschen, die haben Namen, und es ist konkret und greifbar. Wir haben Vertrauen in die Menschen, die die Fotografien machen. Bei der KI ist das alles nicht vorhanden.“ (Ausführliches Interview siehe: „Im Journalismus brauchen wir Vertrauen und Transparenz“.)

Ethische und moralische Fragen

Auch an der Hochschule Hannover würden sich die Studierenden bereits intensiv mit dem Thema beschäftigen – und auch damit, welche moralischen Probleme entstehen „wenn es keine Autoren hinter den Bildern gibt, die Maschinen aber etwas moralisch Verwerfliches tun, indem sie beispielsweise dunkelhäutige Menschen anders darstellen als Weiße. Das wird so sein, denn die KI ist ja mit existierenden Bildern gefüttert worden. Das ist hochproblematisch, und wir müssen darüber nachdenken, was das mit den Betrachtenden macht, was das mit den Bildern macht und wer dafür die Verantwortung trägt.“

Ähnlich sieht es der Fotograf Heinrich Holtgreve, Mitglied der Berliner Fotografenagentur Ostkreuz. Obwohl es bislang keine offizielle Stellungnahme zu dem Thema gebe, sei deren Haltung klar ablehnend: „Wir sind in der humanistischen Fotografie verwurzelt und der Schwerpunkt der Ostkreuzschule liegt auf der Dokumentarfotografie.“ Befürchtungen, dass doch irgendwann KI-Bilder im Archiv auftauchen, habe er nicht: „Wir sind eine kleine Agentur mit 25 Mitgliedern, da kennt jeder jeden, und man ist miteinander befreundet. Da versucht niemand, KI-Bilder in den Bestand hinein zu schmuggeln.“

Stock-Bilder haben keinen Anspruch auf Wahrheit - sie lassen sich jetzt nach eigenen Vorstellungen generieren. | Bild: Robert Kneschke /mit Midjourney generiert
Stock-Bilder haben keinen Anspruch auf Wahrheit – sie lassen sich jetzt nach eigenen Vorstellungen generieren. | Bild: Robert Kneschke /mit Midjourney generiert

Einsatz bei Stockbildern und Illustrationen

Doch wo genau befinden sich die Einsatzmöglichkeiten von KI-Bildern in den Medien, wenn nicht im Fotojournalismus? Schon heute nutzen Redaktionen, egal ob Print, Online oder Fernsehen, massenhaft Symbolbilder und Stockfotos, um Beiträge zu illustrieren, wo es kein journalistisches Bildmaterial gibt. Der Fotograf Robert Kneschke verkauft seit rund 15 Jahren Stock-Fotos über Bildagenturen und seine eigene Website und verfolgt das Thema KI-Bildgeneratoren deshalb sehr genau.

Im Juli 2022 wurde er auf Midjourney aufmerksam und war fasziniert von den Möglichkeiten. „Wir haben einfach ins Blaue hinein Bilder generiert, und die haben sich wie geschnitten Brot verkauft“, erzählt Kneschke. Entsprechend der Saison gibt es Bilder zu Weihnachten, zum Valentinstag und zu Ostern. Als alle über das Metaversum berichtet haben, hatte Kneschke rechtzeitig Bilder von futuristischen Stadtlandschaften im Angebot. Mehr als 4 000 Bilder biete er aktuell an, sein Bestseller habe sich innerhalb von nur sechs Monaten mehr als 1 000 Mal verkauft. Allerdings sei das kein fotorealistisches Bild, sondern ein komplexes und filigranes Hintergrundbild. „Als Illustrator würde man dafür Stunden brauchen und deshalb ist das Angebot in diesem Bereich auch sehr überschaubar“, sagt Kneschke.

Doch obwohl er aktuell sehr erfolgreich KI-Bilder verkauft, schaut er insgesamt mit großer Sorge auf seine Zunft. „Der Stock-Markt ist durch die KI am meisten bedroht, denn die Bilder sollen möglichst generisch aussehen, und sie haben keinen Anspruch auf Wahrheit. Anders als in der journalistischen Fotografie hat man bislang auch nicht angenommen, dass der Mann im weißen Kittel ein echter Arzt ist.“

Bislang zählen Agenturen und Verlage zu seinen Kunden, doch die – so befürchtet Kneschke – würden sich mittelfristig sicher genau überlegen, ob sie Bilder nicht einfach selbst generieren, anstatt sie zu kaufen. Das spare sowohl Personalkosten als auch Lizenzgebühren, denn KI-generierte Bilder können (zumindest bislang) frei genutzt werden. Warum sollten sie also in Zukunft dafür zahlen?

Vereinzelter redaktioneller Einsatz

Ein Grund könnte der Zeitaufwand sein. Dieser sei für die Redaktionen noch sehr hoch, um brauchbare KI-Bilder zu generieren, hat die Funke Mediengruppe festgestellt. Sprecher Dennis Barkhausen bestätigt auf Anfrage, dass „Kolleginnen und Kollegen die Entwicklungen beobachten und auch diverse Tools testen“, etwa Adobe Firefly, Wonder und Midjourney. Dies seien aber „nur vereinzelte und in der Anzahl wirklich sehr überschaubare Tests“.

Strukturiert komme die Technologie bei Funke noch nicht zum Einsatz. „Mehrere unserer Dienstleister bzw. Bilddatenbanken, unter anderem Adobe Stock und iStock by Getty Images, bieten schon KI-generierte Bilder an, die entsprechend gekennzeichnet sind.“ Einzelne solcher Bilder seien auch verwendet worden, schreibt Barkhausen und verweist auf zwei Beispiele aus dem Bereich Stockfotografie und Illustration.

Sicher wird der Zeitaufwand sinken, wenn die Programme weiter trainiert und die Redaktionen auch im Umgang damit geschult sind. Werden der Journalismus und seine Glaubwürdigkeit also von der Künstlichen Intelligenz bedroht? Nicht, wenn sich Agenturen und Medienhäuser an den Pressekodex halten und keine KI-Bilder als reale Bilder verkaufen.

Für Heinrich Holtgreve und Christoph Bangert liegt die Gefahr viel mehr dort, wo es keine Regulierung gibt: bei den Social-Media-Plattformen und Messenger-Diensten. Dort werden schon jetzt Deepfakes ungeprüft verbreitet und verschickt –und durch Midjourney oder DALL-E 2 kann sie nun auch jeder selbst herstellen.

Verunsicherung und der Hunger nach Wahrheit

Aus diesem Grund hat Sascha Lobo in seiner Spiegel-Kolumne vom 26. April 2023 die Verbreitung von Deepfakes über Telegram und Co. als die größte begründete Angst vor Künstlicher Intelligenz eingestuft: „Deepfake-Fotos sind schon heute selbst für Fachleute kaum zu erkennen, und wir stehen vor einer Vielzahl von Anwendungen und Apps, mit denen man in Echtzeit die Aufnahme seines sprechenden Gesichts in ein Video eines sprechenden Olaf Scholz verwandeln kann. Die schiere Masse der möglichen Fälschungen kann zu Verwirrung, Resignation und Zweifel an ungefähr allem führen – was wiederum eine oft gewünschte Folge von bösartiger Propaganda wie der russischen ist.“

Gerade für den seriösen Journalismus kann das aber durchaus einen positiven Effekt haben, sagt Heinrich Holtgreve: „Wenn wir immer wieder mit KI-Bildern auf die Nase fallen, entsteht ein neuer Hunger nach Fotografien als Träger von Wahrheitsgehalt.“ Doch erst müsse es schlimmer werden, damit es besser wird.

Ähnlich sieht es Christoph Bangert: „Für den dokumentarisch-journalistischen Bereich sind KI-Bilder nicht nur irrelevant, sondern sie werden dafür sorgen, dass das, was wir Journalistinnen und Journalisten machen, viel relevanter wird. Schließlich wollen Menschen den Bildern auch vertrauen und nicht ständig belogen werden.“|

Ein Beitrag aus JOURNAL 2/23, dem Medien- und Mitgliedermagazin des DJV-NRW, erschienen im Juni 2023.