Laut der Medienwissenschaftlerin Christina Elmer ist die Anwendung Künstlicher Intelligenz (KI) in Redaktionen und Medienhäusern angekommen. Es gebe in Deutschland wohl kein Medienhaus, das in seinen redaktionellen Abläufen und darüber hinaus nicht mit KI-Systemen arbeite, sagte die Journalistin dem Evangelischen Pressedienst (epd). „Denn auch wenn wir Suchmaschinen im Internet benutzen, uns Texte übersetzen oder Artikel vorlesen lassen, dann sind schon heute lernende Systeme beteiligt.“
Zum Einsatz kämen KI-Systeme auch bereits in der Recherche, etwa bei der Analyse großer Datensätze und zur Identifikation von Mustern, sagt Elmer. So könnten lernende Algorithmen beispielsweise Auffälligkeiten in Satellitenbildern finden oder aus geleakten Datensätzen extrahieren, welche Personen und Unternehmen darin auftauchen und welches Netzwerk sich daraus ergebe. In beiden Fällen helfen lernende Algorithmen also dabei, Ansatzpunkte für die weitere Recherche zu finden – und natürlich auch erste Belege, die dann aber noch überprüft werden müssen.
Zudem sieht Elmer eine große Chance darin, journalistische Formate mit Hilfe lernender Systeme noch besser auf die konkrete Nutzungssituation und die Bedürfnisse der Rezipienten anzupassen. „Ob ich mir zu einem Thema einen Beitrag durchlese, anhöre oder anschaue, könnte ich je nach Situation entscheiden. Auch Bezüge zu meiner Lebenswirklichkeit könnten automatisiert hergestellt werden, etwa durch die Ausprägung der Sprache und regionalisierte Inhalte, die sich auf meinen Wohnort beziehen.“ Wenn KI-Systeme für solche Ansätze genutzt würden, könnte der Journalismus im besten Fall sehr viel hilfreicher sein und mehr Menschen erreichen, sagte Elmer, die an der Technischen Universität Dortmund lehrt.
Für Elmer steht fest, dass Redaktionen gute Prozesse für die Qualitätssicherung brauchen, um das Vertrauen des Publikums nicht aufs Spiel zu setzen. Sie hält es für sehr sinnvoll, dass Redaktionen jeweils selbst definieren, wie sie mit KI-Systemen umgehen möchten.
Gefährlich werde der Umgang mit KI immer dann, sagt Elmer, wenn Aufgabenstellung und KI-System nicht zusammenpassen. Wer zum Beispiel ein generatives Sprachmodell wie ChatGPT dafür verwende, journalistische Beiträge zu verfassen, diesem Modell die dafür nötigen Informationen und Fakten aber nicht zur Verfügung stelle und die Ergebnisse ohne Prüfung veröffentliche, handele fahrlässig. „Das muss man sich immer wieder bewusst machen, im Zweifel sehr genau hinschauen und die Ergebnisse aufmerksam verifizieren“, betont Elmer.