Vermischtes
KNA – Karin Wollschläger

KI in den Medien – zwischen Innovation und Ethik

Was soll die KI im journalistischen Einsatz dürfen?

München (KNA) – Der Einsatz von KI ist aus der journalistischen Arbeit faktisch nicht mehr wegzudenken und nimmt immer weiter zu. Manches ist inzwischen relativ unumstritten wie etwa der Einsatz von KI bei Transkriptionen von Interviews oder bei Übersetzungen. Anders verhält es sich noch bei der Frage, ob eine KI auch Texte, Teaser oder Überschriften (mit)schreiben darf und wie das dann gekennzeichnet wird. Eine andere Frage ist, ob und wie die Leserschaft das Ganze goutiert und welche Auswirkung dies auf Rezeption und Glaubwürdigkeit von Medien hat.

 

In München widmete sich jetzt das Symposium „KI-Einsatz in den Medien – zwischen Innovation und Ethik“ der Gesellschaft katholischer Publizisten und Publizistinnen (GkP) in Kooperation mit der Katholischen Akademie Bayern den praktischen und ethischen Auswirkungen auf Beruf und Gesellschaft.

 

Zum Auftakt gab es Einblicke in den journalistischen Maschinenraum: Thomas Zeller, Chief Content Officer der Mediengruppe Oberfranken, die als Multimediaunternehmen rund 60 Marken um die Regionalzeitung „Fränkischer Tag“ unter ihrem Dach versammelt, berichtete, wie inzwischen KI etwa die Maileingänge in den Redaktionen vorsortiert und Prioritäten zuordnet. Anders ließe sich die täglich anfallende Mailflut kaum mehr bewältigen, so Zeller. Das Risiko, dass hier auch mal etwas durchrutsche, nehme man dabei in Kauf. Insgesamt bewähre sich das Ganze. Die häufig im Lokalen anfallenden Berichte, die Vereine zusenden, lasse man bereits mit KI zu Artikel verarbeiten – am Ende schaue aber immer noch ein Mensch darüber.

 

Publikum ist wenig skeptisch

Bei Pressemitteilungen sei man im Experimentierstadium, veröffentliche aber noch keine solchen KI-generierten Texte. Zeller zeigte sich jedoch optimistisch, dass dies nur eine Frage der Zeit sei. Die Mediengruppe kennzeichne KI-generierte Inhalte, was von der Leserschaft positiv bewertet werde. Das korrespondiert mit einer Umfrage aus der Schweiz von 2023: 29 Prozent gaben da an, sie würden auch vollständig von KI erstellte Beiträge lesen, 55 Prozent würden Texte lesen, die mit Unterstützung von KI geschrieben wurden, 29 Prozent würden für KI-unterstützte Inhalte zahlen.

 

Steffen Kühne, Tech Lead für AI beim Bayerischen Rundfunk (BR), warb dafür, in Redaktionen Lust auf das Experimentieren mit KI zu machen: „Unser größter Fehler beim BR war, dass wir das anfangs etwas verteufelt haben und den Kolleginnen und Kollegen untersagt wurde, ChatGTP für die Arbeit einzusetzen.“ Jetzt suche man in den Redaktionen nach „KI-Lotsen“, die anderen zeigen können, wie man etwa sinnvoll promptet, um gute Ergebnisse von der KI zu bekommen. „Die Endabnahme eines Textes sollte natürlich immer ein Menschen machen, aber auch dabei kann ihn KI unterstützen.“ Sie sei beispielsweise gut darin, Logikfehler zu erkennen.

 

Mangelnde Transparenz

Kritisch mit den Medienhäusern ins Gericht ging die Professorin für Wissenschaftskommunikation an der Uni Passau, Hannah Schmid-Petri. Ihr Stichwort lautete Transparenz. Zwar seien KI-Richtlinien in den meisten Medienhäusern und Redaktionen inzwischen fest verankert, doch es gebe meist keine festen Standards für die Offenlegung. Oft würden nur größere mit Hilfe von KI-generierte Inhalte gekennzeichnet, nicht aber deren sonstiger Einsatz.

 

„Die Frage, wer Nachrichten verfasst und verantwortet, wird schwieriger zu beantworten“, so Schmid-Petri. Für Leser verschwimme die Quellenwahrnehmung, so werde die Beurteilung von Glaubwürdigkeit erschwert: „Zentral ist die Sicherung des Vertrauens in unabhängigen Qualitätsjournalismus – wenn jeder mit KI ein ‚Nachrichtenangebot‘ fabrizieren kann, das der ‚Tagesschau‘ täuschend ähnlich sieht, gewinnt (menschliche) Authentizität dramatisch an Bedeutung, damit die Medien ihre demokratische Aufklärungsfunktion wirksam wahrnehmen können“, sagte die Kommunikationsexpertin.

 

Zugleich berichtete Schmid-Petri von einem spannenden wissenschaftlichen Experiment: Es habe sich gezeigt, dass Menschen mit extremen Einstellungen Artikel und Überschriften weniger skeptisch beurteilen, wenn sie sehen, dass diese von einer KI generiert wurden. „Sie halten die Maschine für sachlicher als Journalisten, die aus ihrer Sicht stärker subjektiv und voreingenommener sind.“ Bei einer bestimmten Gruppe Menschen, die Qualitätsmedien nur noch schwer erreichen, werde der KI so eine höhere Glaubwürdigkeit zugeschrieben.

 

Druck in den Redaktionen

Die epd-Redakteurin und Medienwissenschaftlerin Christine Ulrich fragte in ihrem Vortrag: „Wie können wir KI nutzen, ohne unsere journalistische Professionalität zu verraten?“ Im vergangenen Jahr habe eine Umfrage ergeben, dass mehr als 60 Prozent der Medienschaffenden ethische Bedenken beim Einsatz von KI hätten. „Wahrscheinlich wäre die Zahl heute schon anders“, so Ulrich. Die Branchenmagazine seien voll vom Thema „KI-Einsatz“ und nicht zuletzt dadurch werde ihres Erachtens auch der Druck in den Redaktionen erhöht.

 

Ulrich formulierte eine dreifache ethische Aufgabe für Journalisten: Sie sollten sich selbst einen verantwortungsbewussten Umgang mit KI-Tools aneignen. Darüber hinaus gehöre auch zu ihren Pflichten, das Publikum aufzuklären und zum Umgang mit KI-Systemen zu befähigen. Und sie sollten den Umgang mit KI-Systemen kritisch hinterfragen. Denn viele Fragen, die sich aktuell noch beim KI-Einsatz ergäben, seien nicht unbedingt ethischer Natur, sondern eher einer mangelnden Qualität der KI geschuldet, sagte Ulrich. Etwa, dass die KI beim Thema Fakten oft noch mangelhaft sei oder keine Quellen angebe.

 

„Warum lässt man KI vorerst keine ganzen Artikel schreiben – aus Gründen der Qualität oder der Ethik?“, brachte die Journalistin die Frage auf den Punkt. Denn was passiert, wenn die aktuellen Mängel behoben sind – wovon manche ausgehen? Schließlich habe sich das bei Übersetzungs- und Transkriptionstools in den vergangenen Jahren schon beeindruckend mitverfolgen lassen.