THEMA | KI im Journalismus

Es wird konkret

Wie KI in Redaktionen zum ­Einsatz kommt
14. Juni 2023, Bettina Blaß
Auch wenn sich mit KI erstaunliche Ergebnisse bei der Text- und Bilderstellung erzielen lassen, wird sie in den Redaktionen im Augenblick eher noch für unterstützende Tätigkeiten eingesetzt. | Bild: Damian Zimmermann/mit Midjourney generiert
Auch wenn sich mit KI erstaunliche Ergebnisse bei der Text- und Bilderstellung erzielen lassen, wird sie in den Redaktionen im Augenblick eher noch für unterstützende Tätigkeiten eingesetzt. | Bild: Damian Zimmermann/mit Midjourney generiert

„Künstliche Intelligenz war bisher ein eher theoretisches Thema“, sagt Clemens Boisserée, Leiter der redaktionellen Produktentwicklung bei der Rheinischen Post (RP). „Jetzt sieht auch die breite Öffentlichkeit, welche Macht darin steckt.“ Denn Programme wie ChatGPT, DALL-E, Midjourney oder DeepL Write haben das Potenzial, das Internet und seine Nutzung zu verändern. Schließlich braucht es mit diesen KI-Tools kein Spezialwissen mehr, um erstaunliche Ergebnisse bei der Text- und Bilderstellung zu erzielen. Kein Wunder also, dass seit Anfang 2023 über den Einsatz von KI in der Medienbranche so viel gesprochen und geschrieben wird wie nie zuvor.*

* Hinweis
Wegen der rasanten Entwicklungssprünge können einzelne Aussagen in diesem Beitrag bei Erscheinen schon überholt sein. Die grundsätzlichen Einschätzungen haben aber Bestand.
Dieser Text ist Teil der Titelstrecke zum Thema Künstliche Intelligenz im Journalismus. Die weiteren Texte:
+ Wer hat’s gemacht? Interview mit Helmut Verdenhalven, Leiter Medienpolitik beim BDZV
+ Andere Bilder. KI ändert unseren Blick auf die Fotografie
+ KI-Bilder erkennen: 7 Tipps
+ „Im Journalismus brauchen wir Vertrauen und Transparenz“. Interview mit Prof. Christoph Bangert, Fotograf, Professor für Fotografie an der Hochschule Hannover und Vorstand der laif Genossenschaft in Köln/

Für den WDR kam diese Entwicklung weniger überraschend als für viele andere Medienhäuser. Denn der Sender betreibt seit Jahren ein Innovation Hub – um Trends früh zu erkennen und ihnen nicht hinterherzulaufen. In diesem Zusammenhang hat sich der WDR mit Forschenden und Expertinnen und Experten mit den Trends der Zukunft für die Medienwelt beschäftigt. Der Zukunftsreport 2021 „Synthetische Medien“ (abrufbar unter zukunft.wdr.de) hat den jetzigen plötzlichen Boom von ChatGPT, DALL-E und anderen KI-en vorhergesehen – und zwar zeitgenau. Innerhalb der ARD ist der WDR zum Thema KI federführend.

Welche Unterstützung ist möglich?

Clemens Boisserée. Foto: Rheinische Post Mediengruppe
Clemens Boisserée. Foto: Rheinische Post Mediengruppe

Auch die RP experimentiert seit einiger Zeit im geschützten Bereich mit den Tools, die derzeit auf dem Markt sind: „Wir schauen, ob wir die Produktion verbessern und ob wir die interne und externe Kommunikation mit KI effizienter gestalten können. Wir haben auch unseren redaktionellen Ablauf auseinandergenommen, um zu sehen, wo uns KI unterstützen kann“, sagt Boisserée. Entscheidungen habe man bisher jedoch noch keine getroffen.

Allerdings hat man bei der RP festgestellt, dass speziell ChatGPT besser wird, wenn man viele Informationen zur Verfügung stellt, bevor man die eigentliche Aufgabe formuliert. Deswegen könnte die KI beispielsweise gut auf Leserbriefe antworten, denn in diesen Fällen gibt es einen Ausgangstext, auf den sie sich beziehen kann. „Gerade in diesem Bereich wollen wir KI aber gar nicht einsetzen“, stellt Boisserée klar. „Wir würden es als mangelnde Wertschätzung betrachten, wenn wir die Leserinnen- und Leserbriefe nicht mehr persönlich beantworten, sondern das eine Software machen lassen.“

In einem anderen Bereich setzt die RP aber Whisper ein, eine KI, die wie DALL-E und ChatGPT von der Firma OpenAI kommt: Die Speech-to-Text-Software transkribiert Interviews und Podcasts, „besser als alles andere bisher. Das spart uns intern viel Arbeit“, sagt Boisserée.

Sonja Schwetje ist Chefredakteurin und Programmgeschäftsführerin ntv sowie Chefredakteurin Wirtschaft & Netzwerke bei RTL News. | Foto: Marina Rosa Weigel.
Sonja Schwetje ist Chefredakteurin und Programmgeschäftsführerin ntv sowie Chefredakteurin Wirtschaft & Netzwerke bei RTL News. | Foto: Marina Rosa Weigel.

Auf die Übertragung vom Gesprochenem ins Geschriebene setzen auch andere Medienhäuser. Beim WDR kommt Künstliche Intelligenz für die Transkripte von Videos und Audios seit 2015 zum Einsatz, in der gesamten ARD seit 2016. Genauso ist man bei RTL von den Vorteilen überzeugt: „Die Anwendung von Speech-to-Text-Technologie auf Videomaterial ermöglicht unseren Journalistinnen und Journalisten, zum Beispiel lange Interviews und Bundestagsdebatten sehr schnell von einer KI transkribieren zu lassen, um bestimmte Aussagen zielgerichtet und effizient zu finden“, schreibt Sonja Schwetje, Chefredakteurin und Programmgeschäftsführerin ntv sowie Chefredakteurin Wirtschaft & Netzwerke bei RTL News auf unsere Fragen.

Beim WDR gibt es einen weiteren Einsatzort für KI, und zwar in den Archiven: „Die inhaltliche Beschreibung von Audios und Videos wird so häufig zeitsparender und besser erledigt als zuvor. Dadurch kann mehr Material einfacher durchsuchbar gemacht werden“, sagt Philipp Sevenich, Teamleiter AI & Data Analytics beim WDR.

RTL wiederum setzt KI ein, um Videomaterial sofort mit recherchierbaren Schlagworten und Kategorien zu versehen. Außerdem setzt man bei RTL zum Beispiel bei der Zusammenarbeit mit internationalen Agenturen auf KI-basierte Tools für Übersetzungen und Textoptimierung.

Künstlich erzeugte Bilder

Auch DALL-E, Midjourney und andere Künstliche Intelligenzen, die für die Bildbearbeitung oder -generierung eingesetzt werden können, treiben die Redaktionen um. „Wir sind beispielsweise gerade mit Agenturen im Gespräch. Unsere Idee ist, deren Fotos mit KI weiter zu bearbeiten, um genau die Visualisierungen zu bekommen, die wir benötigen. Dann würde man sich Schmuckbilder von Stockagenturen sparen“, erklärt Clemens Boisserée.

Genauso wird in der Branche darüber gesprochen, dass Redaktionen die benötigten Bilder künftig selbst generieren könnten (siehe dazu auch Teil 2 des Titelthemas, „Andere Bilder“). Egal, ob zugekauft oder selbst erzeugt: Ein Thema werden Urheberrechte und Lizenzen sein – unter anderem für das Material, mit dem die KI-Programme trainiert werden.

Diese Themen stehen stellvertretend für nur zwei Bereiche, in denen eine Regulierung notwendig ist, wie der DJV sie fordert. In einer ersten Stellungnahme hatte der Bundesgesamtvorstand sich zu dem Thema positioniert (abrufbar unter djv.de/ki, siehe ergänzend auch Kasten mit der Stellungnahme des Fachausschuss Online in NRW, „Eindeutige Kennzeichnung erforderlich“). Der DJV verweist in seinem Positionspapier unter anderem darauf, dass KI-Anwendungen nicht die Wächterfunktion übernehmen können, die Journalistinnen und Journalisten ausüben. Die redaktionelle Verantwortung über Inhalte bleibe bestehen. „Medienhäuser können sich nicht aus dieser Verantwortung stehlen.“ Das gelte im Hinblick auf Weiterbildung für die Redaktionen genauso wie für ihre soziale Verantwortung als Arbeitgeber. Der DJV spricht sich für den Einsatz zertifizierter KI-Systeme aus und fordert den Gesetzgeber auf, für Text- und Data-Mining eine Vergütungspflicht einzuführen, damit Urheberinnen und Urheber an der Entwicklung und Nutzung von KI-Systemen partizipieren können.

Eindeutige Kennzeichnung erforderlich
Instrumente vor allem der generativen Künstlichen Intelligenz (KI) einzusetzen hat das Potenzial, gesamte Branchen – über den Journalismus hinaus – zu verändern. Der Fachausschuss Online (FAO)im DJV-NRW versteht KI als Sammelbegriff für das Anwenden von Algorithmen und technischen Innovationen. Die bisweilen verblüffend guten Ergebnisse machen es schon jetzt schwer, damit produzierte Inhalte von denen von Menschenhand zu unterscheiden. „Uns ist es daher ein Anliegen, dass Medienschaffende auch beim Nutzen solcher KI-Algorithmen journalistische Standards und Regeln kennen und sie bei der Überprüfung der generierten Inhalte konsequent anwenden“, sagt Harriet Langanke, Vorsitzende des FAO. Zum verantwortungsbewussten Umgang damit gehöre auch, alle Beiträge, die mit Hilfe einer sogenannten KI entstanden sind, eindeutig zu kennzeichnen. „Ganz gleich, ob es sich um generierte Texte, Bilder oder Töne handelt.“ Werden diese Standards eingehalten, ergeben sich, so der FAO, für Journalistinnen und Journalisten sogar neue Betätigungsfelder. Auch deshalb, weil viele der neuen Instrumente Arbeitsprozesse im journalistischen Alltag beschleunigen und bei der Ideenfindung und -strukturierung wertvolle Unterstützung leisten können.//

Arbeitsentlastende Funktionen

Auch andere Verbände drängen auf eine Regulierung. Aber: „Wenn der politische Rahmen stimmt, kann uns KI helfen, effizienter und schneller zu arbeiten“, sagt Clemens Boisserée. „Wir können nicht-journalistische Arbeiten abgeben und haben so mehr Zeit für kritischen und investigativen Journalismus“, hofft der Produktentwickler. „Ein Kollege hat es so ausgedrückt: ‚ChatGPT ist wie ein virtuelles Teammitglied. Ich muss der KI nicht alles glauben, und sie muss auch nicht mit allem recht haben. Aber der Chat ähnelt einem Kollegengespräch und ist inspirierend‘,“ berichtet Clemens Boisserée (siehe dazu auch „Meine Kreativitätsassistenz“, JOURNAL 1/23).

Der WDR sieht ebenfalls Potenzial für arbeitsentlastende Technologie in den Redaktionen: „Vorstellbar ist, dass Künstliche Intelligenz Redaktionen unterstützt, gerade wenn diese am Limit sind“, sagt Christina Schamp, Innovationsmanagerin beim WDR. „Beispielsweise im Community Management, wenn es darum geht, in der Flut von Kommentaren Hate Speech schnell zu erkennen.“

Auch wenn man Inhalte barrierefrei im Internet zur Verfügung stellen wolle, könne KI eine Hilfe sein. Beispielsweise, indem sie automatisierte Untertitel erstellt. Selbst Avatare für Gebärdensprache seien denkbar. Dank KI werde es auch einfacher und günstiger, Inhalte für sehr spezifische Zielgruppen zu produzieren.

Robojournalismus oder KI am Werk?
Schon vor einigen Jahren ist Robojournalismus in die Medienbranche eingezogen, mit dem automatisch Inhalte für Onlineportale oder Zeitungen erstellt werden (siehe „Der Kollege ist ein Roboter“, JOURNAL 6/19). „Auch das wurde schon als KI bezeichnet“, sagt Merle Uhl, Bereichsleiterin KI beim Digitalverband Bitkom in Berlin. „Allerdings“, so erklärt sie den Unterschied, „werden beim Robojournalismus sehr standardisierte Inhalte erstellt: Wettervorhersagen, Sportergebnisse, Verkehrsmeldungen“. So lässt die Rheinische Post – ähnlich wie einige ­andere Lokalredaktionen – seit 2020 nach Wahlen automatische Kurzanalysen erstellen. Dagegen geht es bei der aktuell diskutierten KI nicht um standardisierte Inhalte, „sondern um komplexe Texte, die so wirken, als ob ein Mensch sie geschrieben habe“, sagt Uhl./bb/

Einsatz in der Verifizierung

KI kann nicht nur helfen, Deepfakes zu erkennen, sondern auch relevante Personen im Bildmaterial zu identifizieren: „Bei der Verifizierung setzen wir Face Recognition ein, um schneller zu finden, was wir suchen“, beschreibt Sonja Schwetje das Vorgehen bei RTL und ntv. „Verifizierungstechniken sind ohne technologische Unterstützung kaum denkbar. Ihr Einsatz gehört zum Handwerkszeug von allen Redakteurinnen und Redakteuren, die am Sendebetrieb beteiligt sind“, betont Schwetje. RTL nutzt auch Tools mit KI-Technologien zur Publikationsplanung in den sozialen Medien sowie Anwendungen, um Text in Audio-Inhalte umzuwandeln.

Auch Merle Uhle, Bereichsleiterin KI beim Digitalverband Bitkom in Berlin, nennt Einsatzmöglichkeiten für KI in Redaktionen oder Presseabteilungen: „Entwürfe lassen sich damit schnell und einfach erstellen“, sagt sie. „Außerdem kann man damit Schreibblockaden lösen.“ Eine Gefahr für Journalistinnen und Journalisten, überflüssig zu  werden, sieht sie in der KI dagegen nicht: „Man benötigt immer noch viel Expertise, um erstens beurteilen zu können, was die Tools schreiben. Zweitens lässt sich ein Entwurf nur dann nach den eigenen Ansprüchen gestalten, wenn man sich mit dem Thema auskennt.“

Bei den vielen Einsatzmöglichkeiten in Medienhäusern bleibt es jedoch bei den Grundsätzen, die Sonja Schwetje für RTL News und ntv formuliert: „Entscheidend ist, dass jedes Produkt vor der Publikation, egal in welcher Gattung, mit journalistischer Skepsis überprüft wird und die inhaltliche Verantwortung vollumfänglich bei den Redaktionen liegt.“

Auch wenn der WDR mit seinem Innovation Hub federführend innerhalb der ARD ist und in dieser Einheit vieles ausprobiert, hat man in den WDR-Redaktionen nicht vorgesehen, Beiträge durch KI erstellen zu lassen. Bei der taz dagegen gibt es seit einigen Monaten die Kolumne der Künstlichen Intelligenz Anic T. Wae, die etwa einmal im Monat erscheint (taz.de/anic).

Unabhängig davon, ob KI eher unterstützen oder wirklich für Beiträge genutzt werden soll – wer ChatGPT, Midjourney und die anderen KI-Tools für die redaktionelle Arbeit einsetzen möchte, muss sich damit auseinandersetzen, wie man sie bedient. Hier gilt: Jedes Tool funktioniert auf seine Weise. Entsprechend gibt es nicht pauschal ein oder zwei Tipps für eine optimierte Anwendung.

Aber wie so oft gilt: „Versuch macht klug!“. Wer schneller zu guten Ergebnissen kommen möchte, beauftragt einen sogenannten Prompt Engineer. „Prompts“ sind die Befehle, die man den Technologien gibt. Die Ippen Digital Zentralredaktion hat schon die Stelle eines AI Prompt Redakteurs (m/w/d) ausgeschrieben, der technische und journalistische Erfahrung haben soll und sich mit dem Thema KI auskennt. Und in der Fortbildung wird die KI auch bereits zum Thema – unter anderem auch beim DJV-NRW (siehe Seminar „ChatGPT und andere Künstliche Intelligenzen – ganz praktisch“).

KI in der Kritik

Trotz der vielen Einsatzmöglichkeiten sind vielen Medienschaffenden die Gefahren der Künstlichen Intelligenz bewusst: Falschmeldungen oder sogar Deepfakes, die natürlich schon vorher möglich waren (siehe „Achtung, Deepfakes! Synthetisierung mit schlechtem Beigeschmack“, JOURNAL 5/21), lassen sich noch leichter erstellen – und noch schwieriger entlarven. Auch liefern die Systeme nicht immer wahrheitsgemäße Antworten. „Das liegt daran, dass die KI nach einem Wahrscheinlichkeitsmodell funktioniert“, sagt Merle Uhle. „Ähnlich wie das Handy immer schon Wortvorschläge macht, wenn man eine Kurznachricht schreibt, funktionieren auch ChatGPT und andere dieser chatbasierten Technologien. Und wie Autokorrekturen können auch sie falsche Vorhersagen machen.“ Sie sind eben keine Suchmaschinen, auch wenn Bing ChatGPT in der Zwischenzeit in die Suche eingebunden hat.

Das Problem: Vielen Nutzerinnen und Nutzern wird dieser Unterschied nicht klar sein. Sie werden zu Beginn (oder schlimmstenfalls sogar dauerhaft) glauben, was sie lesen. Auch deswegen ist ein gesetzlich regulierter Rahmen wichtig. „Darum sollte sich auch jedes Medienunternehmen selbst Regeln geben, bis es einen solchen notwendigen Rahmen gibt“, sagt Clemens Boisserée.

Das sieht man auch beim WDR so. Denn vor dem Einsatz von Künstlicher Intelligenz in Redaktionen müsse man die Möglichkeiten und Grenzen klar benennen. Daher hat der WDR ethische Leitlinien für den Einsatz von Künstlicher Intelligenz erarbeitet. „Wir wollen Klarheit und Transparenz im Umgang mit KI“, erklärt Sevenich.

Auf EU-Ebene wird schon seit 2021 an einer KI-Verordnung gearbeitet. Sie wurde allerdings von den Ereignissen ab Ende 2022 zunächst überholt. Bis zum Erscheinen dieses Textes im Juni kann sich dazu in Brüssel schon etwas getan haben.

Das Thema „Bias“: Wenn beim Erstellen allgemeine Begriffe wie „Person“ oder „Frau“ eingegeben werden, generiert Midjourney je nach Zusammenhang bevorzugt Bilder von weißen, jungen und im weitesten Sinn gut aussehenden Menschen. | Bild: Damian Zimmermann/mit Midjourney generiert
Das Thema „Bias“: Wenn beim Erstellen allgemeine Begriffe wie „Person“ oder „Frau“ eingegeben werden, generiert Midjourney je nach Zusammenhang bevorzugt Bilder von weißen, jungen und im weitesten Sinn gut aussehenden Menschen. | Bild: Damian Zimmermann/mit Midjourney generiert

Es braucht mehr Medienkompetenz

Ein Risiko sieht Christina Schamp darin, dass Menschen und Organisationen, die Böses im Schild führen, ebenfalls KI benutzen werden. Darauf hat beispielsweise auch Europol bereits hingewiesen. Bei RTL macht man sich darüber ebenfalls Gedanken: „Wenn Künstliche Intelligenz mit schädlicher Absicht eingesetzt wird, kann dies zum Beispiel dazu führen, dass manipulierte Inhalte für Nutzerinnen und Nutzer kaum noch von authentischen Inhalten unterschieden werden können“, schreibt Sonja Schwetje. „Dies kann zu Verunsicherung und Vertrauensverlust in Medien und andere demokratische Institutionen führen.“ Sie fordert darum ein höheres Maß an Medienkompetenz auf allen Seiten. „Egal ob in Redaktionen, Schulen oder Unternehmen – eine gesunde Skepsis und hohe Sensibilisierung dafür, Inhalte nicht ungeprüft zu verbreiten, sind unerlässlich.“ Darüber hinaus müssten auch die digitalen Plattformen stärker in die Verantwortung genommen werden.

Merle Uhle weist außerdem auf die Bias-Gefahr hin. Denn hinter den neuen Technologien stehen immer Menschen, die sie programmieren oder trainieren. Sind die eingespeisten Daten nicht divers genug oder transportieren sie ihrerseits bereits Vorurteile, können unbeabsichtigt Fehler entstehen, die bestimmte gesellschaftliche Gruppen bevorzugen und andere diskriminieren, Bias genannt (siehe dazu auch „Andere Bilder“).

Automatisierte Layouts
Die Funke Mediengruppe will künftig Künstliche Intelligenz fürs Layouten einsetzen, um Beiträge automatisch in verschiedensten Layouts zu platzieren. Dieses Projekt will Funke beim European Publishing Congress Mitte Juni vorstellen.
Einerseits ist geplant, künftig aus den Beiträgen der Funke-Titel ohne weiteren manuellen Aufwand neue, vollautomatisierte Medienangebote erstellen zu können, die Abonnentinnen und Abonnenten zusätzlich zu Themenfeldern wie Familie oder Sport wählen könnten. Ziel ist aber auch das komplett individualisierte E-Paper – die eigene digitale Tageszeitung für jeden Abonnenten und jede Abonnentin.
Bisher ist nicht bekannt, welche Auswirkungen das auf Arbeitsplätze im Bereich Layout haben wird./cbl/

Medien fürchten um Reichweite

Auch Clemens Boisserée machen manche Themen im Zusammenhang mit Künstlicher Intelligenz Sorgen: So spielt die Reichweite über Suchmaschinen eine wichtige wirtschaftliche und publizistische Rolle für viele Medienhäuser. Das perspektivische Ziel von Google, Microsoft und anderen sei es jedoch, mit Tools wie ChatGPT die Userinnen und User „gar nicht mehr auf die Medien-Websites zu leiten“, erklärt Boisserée. Stattdessen wollen die Tech-Giganten die Inhalte direkt innerhalb der eigenen Website-Umgebung bereitstellen. „Welche Rolle dabei die journalistischen Inhalte und die Rechte der Verlage spielen, ist noch völlig offen.“ Im Hinblick auf Werbeeinahmen, Sichtbarkeit oder auch die Ansprache neuer Zielgruppen durch Suchmaschinen entstehe hier eine „realistische Gefahr“, wie Boisserée sagt.

Darüber hinaus fürchtet Boisserée, dass Medienschaffende sich ihrer erworbenen journalistischen Kompetenz berauben, wenn sie zu häufig ChatGPT und die anderen Tools einsetzen: „Wer beispielsweise Texte automatisch übersetzen lässt, verliert unter Umständen seine eigene Fremdsprachenkompetenz. Wie ist das, wenn wir möglicherweise aus Bequemlichkeit und zur Unterstützung der eigenen Kreativität die KI Überschriften oder Teaser vorschlagen lassen?“, fragt er.||

Weiterlesen

Linktipp: Das Journalismus LAB der Landesanstalt für Medien NRW hat ein Anbieterverzeichnis mit KI-Anwendungen zusammengestellt: https://www.journalismuslab.de/ki-anbieterverzeichnis/

Wer hat Angst vor ChatGPT https://www.drehscheibe.org/episode/wer-hat-angst-vor-chatgpt.html
Was macht eigentlich ein Prompt Engineer? https://www.br.de/nachrichten/netzwelt/ki-schafft-neue-jobs-was-macht-eigentlich-ein-prompt-engineer,TX4P23Z
Textgenerierung: Jedes sechste Unternehmen plant KI-Einsatz https://www.internetworld.de/digitaler-pos/textgenerierung-sechste-unternehmen-plant-ki-einsatz-nbsp-2852908.html?xing_share=news/

 

Ein Beitrag aus JOURNAL 2/23, dem Medien- und Mitgliedermagazin des DJV-NRW, erschienen im Juni 2023.