Media for Peace #12 KI im konstruktiven Journalismus
Shownotes
Um Künstliche Intelligenz (KI) kommt man im Journalismus nicht mehr herum. Besonders spannend ist der Einsatz für den deeskalierenden Journalismus. Ob als Sparringspartner, zum Perspektivenwechsel oder als Monitoringsystem für die Qualität der konstruktiven Berichterstattung – KI kann dabei eine große Unterstützung sein, aber man muss wissen, wie.
Für Christina Elmer, Professorin für digitalen Journalismus von der TU Dortmund, ist eine reflektierte Auseinandersetzung mit KI im Journalismus essentiell: „Das Vertrauen der Gesellschaft in den Journalismus darf nicht verspielt werden.“
Radka Pudilova, Fellow im Media for Peace Projekt, berichtet über den Einsatz von KI bei der Entwicklung des Prototypen „What if“: „We are still all trying to figure out the ethic guidelines of the use of AI“.
00:00 Begrüßung 00:59 Design Fiction als Ansatz der Media for Peace Fellows 01:45 Interview: Prof. Christina Elmer, Wie wirkt sich KI auf konstruktiven Journalismus aus? 05:50 Krisenjournalismus und problematische/polarisierende Trainingsdaten der KI 07:15 KI als Monitoring für Textqualität 08:15 Das Potenzial von Datenjournalismus 11:27 Möglichkeiten der KI bei kulturellen Unterschieden und Bias 14:42 Macht KI das Vertrauen in den Journalismus kaputt? 16:58 Der Umgang mit Bots 17:50 Gesellschaftliche Folgen und Studienlage 20:50 Wie setze ich als Journalist konstruktive Arbeit mit KI um? 21:44 Guidelines beim Nutzen von KI 22:40 KI-Fakten und Recheche 23:36 Uniprojekt zu KI und Medien und die Grenzen beim Einsatz von KI 25:42 Interview Radka Pudilova M4P Fellow. Did you use AI in your Work as a fellow? 29:08 Design Fiction and AI in Crisis Journalism 30:54 How can Peacebuilding Journalism and AI profit from each other? 32:43 What are the next steps in the M4P Project? 33:42 Verabschiedung
Publikationen auf die sich Aussagen von Radka Pudilova beziehen: https://reutersinstitute.politics.ox.ac.uk/digital-news-report/2023
Weitere Informationen zu Media for Peace findest du auf https://www.media-lab.de/de/media-for-peace
Das ist Media for Peace. Der Podcast auf den Spuren des peace-oriented Journalismus. Eine Kooperation mit der Universität der Bundeswehr München und von DTEC.BW – Zentrum für Digitalisierungs- und Technologieforschung der Bundeswehr.
Transkript anzeigen
00:00:00: Journalismus der Frieden ermöglicht. Das ist Media for Peace, ein Podcast des Media Lab Bayern.
00:00:12: Willkommen bei der neuen Ausgabe von Media for Peace. Ich bin Sabrina Harper und heute geht es um
00:00:18: künstliche Intelligenz. Ich möchte gern wissen, inwieweit KI für einen deeskalierenden und konstruktiven
00:00:26: Journalismus eingesetzt werden kann oder bereits eingesetzt wird. Dazu habe ich Christina Elmar
00:00:32: eingeladen. Sie ist Professorin für digitalen Journalismus an der TU Dortmund. Außerdem schauen wir
00:00:39: selbstverständlich bei unseren Media for Peace Fellows vorbei. Das ist ja quasi unser USP. Wir
00:00:45: verbinden Wissenschaft und Praxis und deshalb kommen bei uns auch immer die Fellows zu Wort.
00:00:50: Dieser Podcast begleitet sie bei ihrer Formatentwicklung für einen deeskalierenden Journalismus in
00:00:56: Krisenregionen. Wenn du schon in unsere vorherige Folge, also die Live-Podcast-Folge, reingehört
00:01:02: hast, dann weißt du ja schon, dass das Media for Peace Projekt inzwischen konkreter geworden ist.
00:01:08: Die Fellows haben ein Format mit dem Ansatz "Design Fiction" gewählt. Wenn du noch nicht genau
00:01:14: weißt, was das ist, kein Problem, dann hören die Folge 11 rein. Da wird das etwas erklärt.
00:01:19: Radka ist eine von den Fellows und sie wird mir später in diesem Podcast noch verraten,
00:01:26: ob KI auch bei der Media for Peace Formatentwicklung eine Rolle gespielt hat. Bevor ich Radka bei mir
00:01:32: begrüßen darf, holen wir uns noch den Input von Professorin Christina Elmar ab, um zu verstehen,
00:01:38: wo die Typen und Chancen im Einsatz von KI liegen.
00:01:41: Christina, willkommen hier bei uns im Podcast. Danke, dass ich dabei sein darf. Ich sage schon
00:01:51: mal Danke, weil du hast den absoluten Plan, wenn es um KI und konstruktiven Journalismus geht. KI
00:01:57: hat ja überall Einzug gehalten und alle sprechen darüber, inwiefern wirkt sich denn das speziell
00:02:03: auf konstruktiven Journalismus aus? Ja, gute Frage. Im ersten Moment denkt man ja, wie soll das
00:02:09: zusammenpassen? Das eine ist total technisch. Der ganze KI-Bereich, da geht es um Algorithmen,
00:02:16: die aus Trainingsdaten lernen und das andere Konstruktivität hat ja auch einen sehr empathischen
00:02:21: Kern. Da geht es dann halt auch darum, eben Lösungen zu finden, die das ganze Spektrum auch
00:02:27: darstellen der Möglichkeiten Menschen auch wirklich zu helfen, mithilfe von Berichterstattung auf
00:02:32: neue Ideenfeld auch zu kommen. Also, dass es ein Feld, das erst mal sich ganz anders anfühlt als
00:02:38: jetzt der KI-Bereich, wo es häufig sehr technisch ist. Aber es gibt natürlich schon Möglichkeiten,
00:02:44: wie man zum Beispiel auch KI-Modelle ganz grundsätzlich konstruktiv gut einsetzen kann oder
00:02:50: wie man sie einsetzen kann, um eben zum Beispiel mehr Perspektiven in die Berichterstattung zu
00:02:55: bringen. Weil wir uns ja auch bewusst machen müssen, dass Konstruktivität gar nicht nur
00:02:59: bedeutet über Lösungen nachzudenken, sondern auch die Berichterstattung ein bisschen nuancierter
00:03:05: zu gestalten, dass man eben nicht nur polarisiert, sondern ja auf dem ganzen Spektrum mehr unterschiedliche
00:03:11: Perspektiven darstellt. Dabei können tatsächlich auch technologische Tools helfen. Also, wie
00:03:16: stelle ich mir das dann vor? Also, wie alle kennen ja jetzt schon Chatchy P.T., schreibe ich dann da rein,
00:03:22: gebe mir die Sicht einer jungen Frau mit 20, gebe mir die Sicht eines Mannes mit 40,
00:03:29: gebe mir die Sicht eines Quiren, der im Ruhrpott lebt. Oder wie mache ich es? Also, da muss ich mir aber
00:03:37: auch eine Menge überlegen. Ist das überhaupt ein Weg, den ich da gerade vorschlage? Das ist
00:03:42: ein möglicher Weg tatsächlich, weil wir ja davon ausgehen, dass in Redaktionen ganz viele Perspektiven,
00:03:47: die im Publikum quasi wichtig sind, gar nicht vertreten sind. Das heißt, wir haben in der
00:03:52: Redaktion, und das natürlich auch ein nochmal ein anderes Thema, Diversität. Da haben wir wirklich
00:03:58: auch Nachholbedarf, aber selbst wenn wir das wirklich auch gut hin bekämen, wir hätten immer
00:04:03: noch viele Perspektiven, die fehlen. Und da kann es total hilfreich sein im Vorfeld von der Berichterstattung,
00:04:08: wenn ich in der Redaktion sitze und recherchiere, meinetwegen zum Heizungsgesetz recherchiere.
00:04:14: Und ich möchte gerne wissen, wie muss ich denn am Ende berichten, damit das wirklich auch all
00:04:19: meinen unterschiedlichen Leserinnen und Lesern hilft? Dann wäre es natürlich ein Weg, ChatGbt zu
00:04:24: fragen. Tu mal bitte so, als ob du eine junge, alleinerziehende Frau bist, die in einer kleinen
00:04:30: Wohnung lebt, und gib mir mal die wichtigsten Fragen, die ich jetzt beantworten soll und sag mir auch,
00:04:35: was ich auf keinen Fall falsch machen darf in diesem Artikel, was dich aufregen würde. Das
00:04:39: funktioniert bei ChatGbt so ein bisschen, aber man kann natürlich auch Algorithmen daraufhin
00:04:45: spezifisch trainieren und denen noch ein bisschen mehr Futter an die Hand geben, zum Beispiel aus der
00:04:50: eigenen Marktforschung oder auch eigenen Interviews, die man mit Leserinnen und Lesern geführt hat,
00:04:54: damit die einfach realistischer werden. Im Moment ist das natürlich sehr schematisch und ja von dem
00:05:01: abgeleitet, was ChatGbt so aus dem Internet gelernt hat, da muss man ja mal aufpassen. Ja, es kann
00:05:06: dann auch immer nur aus der Vergangenheit lernen und in die Zukunft extrapolieren. Das ist ohnehin
00:05:10: so ein bisschen ein philosophisches Problem, weil natürlich dürfen sich Menschen auch bitte weiter
00:05:14: entwickeln und wir wollen ja nicht immer nur die Vergangenheit reproduzieren. Aber ja, also man
00:05:19: könnte auf diese Weise zumindest Redaktionen ermöglichen, dass sie im Prozess des Artikel
00:05:24: "Recherchierendsschreibens" immer mal wieder so kleine Gegenschüsse sozusagen bekommen. Also
00:05:30: ja, vielleicht ist das nicht der richtige Begriff, also auf jeden Fall aus verschiedenen Perspektiven
00:05:35: immer mal wieder neue Fragen reingespielt bekommen. Und das ist erstmal, glaube ich, ganz gut. Aber
00:05:41: die Ideen gehen natürlich darüber hinaus. Okay, also pass mal auf. Halte die Ideen bitte kurz fest.
00:05:46: Ich muss noch eine Rückfrage stellen. Du hast nämlich gerade schon gesagt, ChatGbt ist in der
00:05:50: Vergangenheit und so weiter und so fort. Wenn man sich allerdings aus dem Netz speist, dann stolpert
00:05:56: man doch oft eher über Streit, Polarisierung, negative Konnotation. Also es ist ja schon,
00:06:04: keine Ahnung, wenn wir jetzt über Krisensituationen nachdenken. Bei uns ist ja der Fokus auf Krisengebiete,
00:06:11: dann werde ich eher sowas finden wie Opferzahlen, Ausschreitungen und so weiter. Das macht es aber
00:06:17: auch recht schwer, oder? Das ist auch ein Problem. Zumal wir ja gar nicht genau wissen,
00:06:22: welche Trainingsdaten da ganz konkret drinstecken. Also man würde das gerne mal wirklich in der Tiefe
00:06:27: untersuchen. Leider ist das in den seltensten Fällen irgendwie öffentlich. Also es gibt Open-Source-Modelle,
00:06:32: wo man das weiß. Aber gerade bei den großen Leistungsstarken weiß man nur, dass da einfach
00:06:38: sehr viel vom Internet drinsteckt und das stimmt natürlich. Also ganz häufig sind es dann eben
00:06:43: eher die, zum Beispiel auch aus den Nachrichten, die Krisen- und Katastrophenmeldungen oder das,
00:06:48: was polarisiert. Es ist ganz viel Wissenschaftliches drin. Also Wikipedia und auch andere Datenbanken,
00:06:55: die eher Informationen enthalten, die so sehr neutral beschreibend sind. Aber so diese Lebensrealität,
00:07:03: zum Beispiel, die man ja gerne mal reinbringen möchte, vielleicht wenn man konstruktiv über Themen
00:07:07: nachdenkt, ja, wo soll die herkommen? Die findet sich dann da recht selten. Okay. So,
00:07:12: springen wir noch mal zurück. Vielen Dank noch mal für diesen Ausflug. Du hast ja gesagt,
00:07:16: da gibt es darüber hinaus auch einige Dinge. Was denn? Also es gibt einmal Ideen, ob man nicht
00:07:23: eigentlich auch künstliche Intelligenz nutzen kann, um zu messen, wie konstruktiv die eigene
00:07:28: Berichterstattung ist. Das finde ich dann spannend. Das geht dann einfach davon aus, dass ich dem
00:07:32: Algorithmus mal wegen 100 sehr konstruktive Artikel gebe und denen dann einfach lernen lasse,
00:07:38: was die möglicherweise charakterisiert. Das können dann bestimmte Aufbau sein, das können
00:07:43: Wörter sein, da das ja häufig Blackbox-Systeme sind, werden wir es nie so richtig erfahren.
00:07:47: Aber die Vorstellung ist, dass dann möglicherweise dieses System am Ende messen kann, ob ein Artikel
00:07:53: sehr oder gar nicht konstruktiv ist. Das ist vielleicht schon mal so als Monitoring-System
00:07:58: ganz hilfreich, wo das auch schon eingesetzt wird in Redaktionen. Das ist beim Thema Diversität.
00:08:03: Also sind die Expert*innen eigentlich, die wir so zitieren, sind die eigentlich unterschiedlich
00:08:08: genug? Kommen Frauen und Männer unterschiedlich oft vor? Wie völlig überraschend ist das so?
00:08:13: Da ist halt sehr, sehr viel Männer aus bestimmten Kulturkreisen zitiert werden und da können eben
00:08:19: KI-Systeme auch helfen, das einfach sichtbar zu machen und das den Redaktionen einfach mal ganz
00:08:24: klar auf einem Dashboard sichtbar zu machen, dass sie da eine Verzerrung reproduzieren, die es
00:08:30: möglicherweise in der Wissenschaft auch gibt. Klar, aber das muss man ja nicht auch noch quasi
00:08:34: verstärken. Genau, das sind so einige Möglichkeiten und dann ist mir selbst natürlich der Bereich
00:08:41: Datenjournalismus ganz nah. Da habe ich auch selbst lange drin gearbeitet in diesem Feld und
00:08:46: da geht es häufig darum, große Datenmengen auszuwerten. Im Moment arbeiten auch viele Redaktionen mit
00:08:52: Satellitendaten zum Beispiel. Und da gibt es zum Beispiel eine schöne Recherche vom Bayerischen
00:08:57: Rundfunk zum Thema Hitzeinseln in der Stadt, die auch auf Satellitendaten basiert, die mithilfe von
00:09:02: künstlicher Intelligenz analysiert wurden, weil es einfach so Riesendatenmengen sind, kann man die
00:09:07: schon gar nicht übereinander bringen ohne Lerndealgorithmen tatsächlich. Und auf diesen Karten,
00:09:13: die dabei entstehen, kann man wirklich bis auf seine Straße reinsoumen und sieht dann, lebe ich
00:09:18: eigentlich in so einer Hitzeinsel oder lebe ich in einem Bereich der Stadt, der auch in einem sehr
00:09:23: heißen Sommer noch kühl bleibt. Und solche Themen finde ich sind dann sehr schön, weil sie zeigen,
00:09:27: wie viel unterschiedliche Realitäten es gibt. Sie zeigen die volle Bandbreite von Extremen,
00:09:35: aber auch Bereichen, in denen es eher moderat bleibt. Man kann Lösungen finden, weil man ja sieht,
00:09:40: wo keine Hitzeinseln sind, dann sieht man direkt die Faktoren, man sieht den Park, man sieht Wasser
00:09:45: und so weiter. Das heißt, solche sehr kleinräumigen Analysen können dann wirklich helfen, ja auch
00:09:51: positive Vorbilder ausfindig zu machen. Das finde ich noch sehr schön. Und dann, finde ich, dürfen
00:09:57: wir auch nicht vergessen, dass wir ja mit Hilfe von KI Beiträge auch in unterschiedlichen Sprachen
00:10:02: zum Beispiel ausspielen können oder auch mit unterschiedlichem Sprachlevel, also sozusagen
00:10:09: für einfache Sprache vielleicht auch. Das heißt, da können uns Lerndealgorithmen helfen, dass wir
00:10:15: einfach mehr Menschen erreichen können, schon allein durch die richtige Sprache. In Krisengebieten
00:10:20: ist das ja auch manchmal die Herausforderung, die Gegenpartei oder die Gegenseite zu erreichen.
00:10:26: Auch auf sprachlichen Niveau. Von daher ist es auch etwas, glaube ich, was weltweit interessant ist.
00:10:34: Das glaube ich auch. Und jetzt kommen ja auch die ersten Werkzeuge oder Apps vor allen Dingen,
00:10:41: mit denen man dann einfach auch direkt übersetzen kann und wo die Stimme dann auch noch synthetisiert
00:10:46: wird, die eigene. Also ich bin sehr gespannt, wie das unser Verhältnis zur eigenen Stimme und auch
00:10:51: zur Authentizität in dem Bereich verändern wird. Ich glaube, das wird es auf jeden Fall. Aber wenn
00:10:56: dennoch die Person quasi der Urheber ist, das gesagten, die ich da höre, wer ist jetzt eigentlich
00:11:03: mir gar nicht so wichtig, ob die Stimme echt echt ist oder synthetisiert, aber im Einverständnis sozusagen,
00:11:09: weil dann könnte ich es wenigstens verstehen. Aber da müssen wir uns auch, glaube ich, noch
00:11:14: wirklich ein neues Verständnis angewöhnen, auch was so die Transparenz angeht, dass man wirklich
00:11:19: nicht das Gefühl hat, man ist plötzlich umgeben von nur noch künstlichen Stimmen.
00:11:24: Ja. Siehst du auch Einsatzfelder, wenn es um kulturelle Unterschiede geht?
00:11:30: Ja, grundsätzlich kann ich mir das schon gut vorstellen. Aber ich kenne jetzt kein konkretes
00:11:36: Beispiel, wo auf dem Bereich sozusagen trainiert wurde. Aber eigentlich kann man schon sagen,
00:11:42: überall da, wo es ausreichend aussagekräftiges Trainingsmaterial gibt, da kann man auch einen
00:11:48: Algorithmus trainieren, das dann wiederum zu reproduzieren in einem neuen anderen Umfeld.
00:11:52: Deswegen würde ich da jetzt erst mal gar nicht grundsätzlich denken, dass das unmöglich ist.
00:11:57: Aber ich glaube, dass gerade bei kulturellen Fragestellungen natürlich auch viel zwischen den
00:12:01: Zahlen passiert, viel noch mal auf einem anderen Level zu beachten ist und dass dafür vielleicht
00:12:09: auch einfach KI-Algorithmen noch nicht gut genug mit Minderheiten zum Beispiel zurechtkommen,
00:12:14: wenn wir es ihnen nicht explizit sagen. Das ist ja immer so das Problem einerseits,
00:12:19: tenzieren sie da zu diskriminieren, weil sie eben aus den Trainingsdaten immer nur das
00:12:24: Aussagekräftige lernen und häufig dann die kleinen Gruppen hinten runterfallen, auf
00:12:28: die man aber besonders acht geben muss. Man kann es ihnen aber natürlich schon auch hart beibringen.
00:12:34: Also hart, man eigentlich in dem Fall tatsächlich, indem man es reinprogrammiert. Aber das muss man
00:12:38: vorher, man muss sich dessen dann bewusst sein und man muss es dann mit Programmierern zusammen
00:12:43: auch beschreiben können, was man eigentlich möchte. Das heißt, da braucht man schon echt viel,
00:12:47: viel arbeiten, interdisziplinieres Team dafür und so. Also das fällt da sehr vorsichtig sozusagen
00:12:55: mit irgendwelchen Life-Experimenten. Aber da würde ich gerne mal was sehen. Ja, dieser berühmte
00:13:00: Algorithmic-Bias, der umhergeht und der manchmal dazu führt, dass eine KI aus einer Korrelation,
00:13:09: eine Chaos-Alität macht zum Beispiel und dann kommt etwas ganz Seltsames raus. Genau,
00:13:14: oder die Korrelation einfach verstärkt und dafür sorgt, dass sie zu regel wird und alles,
00:13:21: was quasi sich anders verhält, gar nicht mehr wirklich durchkommt. Und das muss ja auch nichts
00:13:26: Böses sein. Also das kann auch sein, wie sieht ein typischer Arzt aus und wir haben einfach alle
00:13:32: ein Bild von dem Arzt im Kopf und zum Beispiel nicht von einer Ärztin. Ja, eben genau, das,
00:13:39: was wir so im Kopf haben, ganz häufig spiegelt sich in diesen Verzerrungen in den System eigentlich
00:13:45: das wieder, was in der Gesellschaft schiefhängt. So, man kann das eigentlich oft so so ableiten.
00:13:50: Dadurch kann man auch sagen, sind sie häufig ganz gute Signalsysteme. Also man sieht dann
00:13:55: plötzlich, oh verdammt, wir denken wirklich alle an Männer, wenn wir an Ärzt denken. Wo können
00:14:00: wir denn dann noch anfassen, um das zu ändern? Also es ist eigentlich auch, wenn man es konstruktiv
00:14:05: begreift, so eine Hinführung vielleicht zur Lösung. Aber im ersten Moment tendieren die Systeme dann
00:14:12: dazu diesen Effekt, den sie gefunden haben. Meistens denkt man an Männer, das dann sozusagen
00:14:16: vorzuschreiben, sodass das Ergebnis dann ist. Es werden nur noch Männer gezeigt. Und dann wird
00:14:23: es natürlich problematisch. Das ist, glaube ich, echt so eine Aufforderung an die Gesellschaft,
00:14:27: da an vielen Stellen viel stärker jetzt auch noch mal in den Dialog zu gehen. So was wollen wir
00:14:31: denn eigentlich, wo wirklich haben? Welche Grundwerte sind uns an welcher Stelle wichtig? Wie
00:14:36: wichtig ist Fairness? Wie wichtig ist Transparenz? Ja, dafür brauchen wir eigentlich viel mehr Foren,
00:14:41: in denen wir das diskutieren können. Transparenz ist eben auch so ein Thema oder ein wichtiger Aspekt
00:14:47: und das andere für Antwortungsbewusstsein. Das haben wir jetzt ja beide so ein bisschen
00:14:51: angeschnitten. Diese zwei Werte sind ja auch sehr, sehr stark verbunden mit dem Vertrauen in den
00:14:58: Journalismus. Ich frage dich mal ganz direkt, auch wenn es eine sehr komplexe Angelegenheit
00:15:05: wahrscheinlich ist, macht KI das Vertrauen in den Journalismus kaputt oder stärkt? Ist das Vertrauen?
00:15:13: Einerseits würde ich sagen, es kommt natürlich total darauf an, wie der Journalismus mit ihm
00:15:17: umgeht. Aber auf lange Sicht sehe ich eigentlich gerade eine ganz große Chance, nämlich müssen
00:15:24: wir davon ausgehen und es geht ja auch schon los, dass einfach sehr viel synthetisiert wird im Internet
00:15:29: mithilfe von KI-Systemen im Bereich Videos, im Bereich Bilder und so weiter. Und die schöne
00:15:36: Vorstellung, dass man das mit einem Wasserzeichen alles versehen könnte und labeln könnte als
00:15:40: synthetisch, ist glaube ich wirklich hoffnungslos. Das heißt, das können wir uns abschminken. Und
00:15:45: dann ist eigentlich meine Hoffnung, dass in Zukunft es wieder mehr auf die Quelle ankommt und mehr
00:15:50: vertrauenswürdige Medienmarken zum Beispiel oder auch andere vertrauenswürdige Quellen eine
00:15:55: wichtige Rolle spielen, weil wir als Bürgerinnen und Bürger dann davon ausgehen müssen, dass
00:16:01: sehr vieles, was uns im Internet begegnet, wahrscheinlich irgendwie synthetisiert ist oder
00:16:07: in Teilen zumindest manipuliert sein könnte, ohne dass wir es merken. Die Systeme, um das aufzudecken,
00:16:13: so Verifikationstools und so, die gibt es natürlich, aber die können auch immer nur zu einer bestimmten
00:16:18: Wahrscheinlichkeit sagen, wie falsch es sein könnte. Und das ist auch so ein, am Ende so ein
00:16:24: Red-Race, wo man einfach dann die eine Technologie läuft, der anderen hinterher muss man da wahrscheinlich
00:16:29: sagen. Also wie gesagt, ich hoffe, dass es am Ende dazu führt, dass der Journalismus gestärkt
00:16:35: daraus hervorgeht. Aber er darf eben jetzt auch nicht das vertrauen, was er noch hat in der
00:16:39: Bevölkerung. Das zeigen ja auch die Studien eigentlich sehr schön, dass das schon noch in
00:16:44: weiten Teilen da ist, so zumindest mehr oder weniger, aber zumindest gibt es gerade in Deutschland
00:16:50: ein relativ hohes Level an Medienvertrauen. Das darf er jetzt nicht verspielen. Das wäre schade.
00:16:56: Eine weitere Herausforderung eben gerade in Krisengebieten sind Bots etc. Also auf Social Media,
00:17:04: dazu haben wir auch mal eine extra Folge in Staffel 1 gemacht. Wie schätzt du denn da die Lage ein?
00:17:11: Also dass wir die Bots haben, dass wir uns darüber bewusst sind, Fragezeichen, wie wir
00:17:19: mit umgehen und was die Anrichten in der Realität, genau bei dem letzten, da würde ich auch sagen,
00:17:28: da liegt eigentlich jetzt gerade die große Forschungsfrage, nämlich wir sehen das Phänomen,
00:17:32: aber was richtet es tatsächlich in der Realität an? Also wir kennen, was jetzt
00:17:37: Desinformation angeht, schon ja auch Effekte in der realen Welt, da gibt es ja auch diverse
00:17:42: sehr eindrucksvolle Beispiele, jetzt zum Beispiel auch beim Impsen, dass das einfach abgelehnt wurde,
00:17:48: weil Menschen überzeugt waren, dass es wahnsinnig schädlich ist und irgendwelche Chips
00:17:53: da drin sind und so weiter. Also es sind schon auch reale Folgen, die man beobachtet. Die Frage
00:17:58: ist nur, gibt es so einen systematischen Effekt auf die Gesellschaft und das, was sie so glaubt
00:18:03: über diese einzelnen Effekte hinaus? Und da gab es jetzt zuletzt eher Studien, die gesagt haben,
00:18:09: na ja, so schlimm ist das eher wahrscheinlich nicht mit den Echo-Kammern und auch mit der
00:18:15: Verhaltens- oder Einstellungsänderung durch soziale Netzwerke und durch das, was da so passiert.
00:18:20: Also die gute Nachricht ist, offensichtlich sind Menschen doch resilienter, was so was angeht und
00:18:26: lassen sich nicht sofort irgendwie dann, jedenfalls in der Tendenz, dann von Bots und
00:18:31: ähnlichen oder von Hate Speech und Desinformation direkt so stark beeinflussen. Aber ganz grundsätzlich
00:18:38: würde ich schon sagen, müssen wir da irgendwie auch aufpassen, dass sich dann wiederum, weil
00:18:45: sozusagen die digitale Öffentlichkeit so stark von denen manchmal geprägt ist bei bestimmten Themen,
00:18:51: dass sich dann nicht die Leute zurückziehen in ihre Kleingruppen, die dann vielleicht sich dann um
00:18:58: so mehr radikalisieren können. Also ich habe schon den Eindruck, dass Social Media Kommentare,
00:19:04: das Bild, das ich eh schon habe, verfestige. Und das ist ja oft in Krisengebieten auch die große
00:19:11: Herausforderung, dass ich eben über meine bisherigen Annahmen darüber hinaus komme. Und das
00:19:18: stelle ich mir besonders schwierig vor. Wurde das in dieser Studie, die du jetzt zitiert,
00:19:22: auch abgedeckt? Weil ich bin jetzt tatsächlich sehr überrascht über dieses Ergebnis.
00:19:27: Ja, also was man ja auch schon weiß, ich glaube, das gilt am Ende beides. Auch gleichzeitig ist
00:19:32: das soziale Netzwerke natürlich dazu tendieren eher auch so Emotionen wie Ärger, Hass, Angst und
00:19:41: so weiter, sozusagen die zu verstärken, weil das eben auch die Emotionen sind, die dazu führen,
00:19:45: dass Beiträge geteilt werden und Menschen lange auf diesem Plattform bleiben. Und das sind die
00:19:50: zentralen Metriken, nach denen dort Beiträge optimiert werden oder die Streams, die wir sehen,
00:19:56: optimiert werden eher. Und das leitet natürlich schon dazu, dass wir solche Beiträge eher sehen,
00:20:04: dass wir mehr davon sehen und natürlich beeinflusst das Menschen. Ich glaube, davon können
00:20:08: wir auf jeden Fall ausgehen. Aber es ist wohl nicht so, dass dadurch ganz schnell sozusagen sich die
00:20:15: Einstellungen verändern lassen, wenn man jemandem jetzt einen ausgewogeneren Facebook Feed zum
00:20:21: Beispiel zeigt, dass wir jetzt aus der Studie sozusagen das Ergebnis und ja, es ist ein bisschen,
00:20:27: also milder, so ein bisschen die Angstabfindung, die man da haben kann. Aber natürlich müssen
00:20:31: wir uns auch darüber ganz grundsätzlich Gedanken machen, aber auch im Klaren darüber sein. Ich
00:20:35: glaube, ganz viele, die auf den Netzwerken sind, denen ist das gar nicht so bewusst, dass eben
00:20:41: Beiträge eher viel mehr Sichtbarkeit bekommen, die sehr krasse Emotionen hervorrufen und dass man
00:20:48: sich selbst ja auch dagegen schützen kann. Wenn ich jetzt ein Journalist oder eine Journalistin
00:20:53: bin, die konstruktiv arbeiten möchte und KI einsetzt und ich bin aber noch nicht so überzeugt
00:21:00: und denke mir, oh, diese Algorithmic Bias und diese Informationen und bisschen negativ alles da im
00:21:07: Internet und so weiter. Was würdest du mir jetzt raten, wie ich KI positiv in meine Arbeit integrieren
00:21:14: kann? Also aktueller Stand, es entwickelt sich ja rasant, müssen wir dazu sagen. Ja, das stimmt.
00:21:20: Also ich würde jedem vor allen Dingen auch erst mal raten, so ein Fenster, einen Tab im Browser mit
00:21:27: LGBT einfach immer mal offen zu haben und zwischendurch immer mal so zu experimentieren. Was bekomme
00:21:33: ich denn da zurück? Man hat manchmal so kleine Ideen, die einem ganz viel auch zeigen, was geht
00:21:38: da und was geht da nicht. Aber Redaktionen und auch einzelnen Journalist*innen würde ich vor allen
00:21:43: Dingen raten sich im Vorfeld Gedanken zu machen, welche Werte ihnen wichtig sind dabei. Weil es
00:21:49: einfach immer die Frage ist, wenn ich KI nutze, dann sollte ich es wertegeleitet tun und um welche
00:21:54: Werte geht es mir denn da? Geht es mir um Fairness bezüglich bestimmter Gruppen? Was bedeutet
00:21:59: eigentlich Fairness für mich? Wie möchte ich damit umgehen, was meine Zielgruppe angeht,
00:22:04: aber andere vor allen Dingen auch kleinere Gruppen, Minderheiten, die mir wichtig sind? Wie
00:22:08: sollen die behandelt werden? Auch letztlich, welche Guidelines kann ich mir setzen? Es gibt einige
00:22:14: Redaktionen, die da schon wirklich ganz gute Guidelines veröffentlicht haben. Der bayerische
00:22:18: Rundfunk ist da zum Beispiel zu nennen. Das ist dann schon ja so ein kleiner Katalog an Richtlinien,
00:22:25: in denen man sich einfach mal daneben legen kann. So, dann kann man schon mal nicht in die ganz
00:22:29: falsche Richtung laufen. Und die Frage, finde ich, die man sich auch stellen sollte und die man klären
00:22:35: sollte für sich ist, wer trägt eigentlich wofür die Verantwortung? Also wie kann ich sicherstellen,
00:22:40: dass ich nach bestem Wissen und Gewissen hier arbeite, wenn ich dieses System benutze? Und gerade
00:22:46: bei ChatGPT, was ja jetzt kein System ist, was Fakten irgendwie bewertet, sondern da wird ja
00:22:52: einfach nur plausibler Text erzeugt. Und das war es. Da muss ich mir bewusst sein, dass die Fakten,
00:22:57: die dann da drin stehen in dem Text, die am ersten Mal keine Grundlage, sondern nur,
00:23:01: dass es halt eine Wahrscheinlichkeitsrechnung, die dahinter steckt. Und das heißt, die muss
00:23:05: ich verifizieren. Ich muss möglicherweise mit diesen Texten am Ende viel mehr prüfen, als
00:23:10: wenn ich sie selbst recherchiert hätte. Da ergeben sich dann bestimmte Anwendungsbereiche dann auch
00:23:15: daraus, die ich dann, also da möchte ich keine KI dafür benutzen, weil ich eben am Ende viel
00:23:20: mehr zu tun habe. Aber vielleicht ist es hilfreich zum Sparring, wenn ich mir meinen neuen Einstieg
00:23:25: überlege oder eine Vorstrukturierung oder wie ich auch gesagt habe, vorhin mit den verschiedenen
00:23:30: Perspektiven. So dafür kann es total hilfreich sein. Aber das muss man dann alles mal ausprobieren. Und
00:23:36: was wir mit unseren Studenten und Studentinnen schon gemacht haben, was sehr schön funktioniert hat,
00:23:40: das war, dass die sich Aufgaben gesucht haben, die sie gut einschätzen können, also wie sie
00:23:45: selber auch eine bisschen Expertise haben und wo sie sich auskennen. Und die haben versucht,
00:23:50: die komplette Aufgabe dann mithilfe von ChatGPT zu lösen und haben analysiert, wie gut das klappt.
00:23:55: Und das war toll. Also wir hatten eine Radiosendung, die komplett von ChatGPT geplant und durchgefühlt
00:24:01: wurde und hat sich dann rausgestellt, zum Beispiel die Moderation, vor allen Dingen, wenn eine Panne
00:24:06: passiert, die ist nicht so schlecht. Musikauswahl war auch ganz okay, aber die Nachrichten ging
00:24:10: eigentlich gar nicht. Und das hat der Student natürlich auch sofort gesehen. Und das heißt so
00:24:15: dieses "ich suche mir eine Aufgabe, ein Thema, in dem ich mich auskenne und dann vergleiche ich mal,
00:24:20: was kommt da zurück von dem System?" Das zeigt einem schon irgendwie auch ganz gut, wo die Grenzen
00:24:25: sind. Und trotzdem hätte ich aber, würde ich jedem raten, einfach mit ganz viel Freude auch erst mal
00:24:30: zu experimentieren, weil das ja ja erst mal auch eine Technologie ist, die man kennenlernen muss,
00:24:35: um mit ihr gut umzugehen und um sie auch kritisch begleiten zu können. Und das ist ja auch unser
00:24:40: Auftrag im Journalismus. Vielen Dank, Christina, für die Einblicke. In alle möglichen Bereiche,
00:24:46: wie wir KI in einer deeskalierenden Sprache in einem konstruktiven Journalismus einsetzen können.
00:24:53: Super gerne. Vielen Dank nochmal. Sparing Perspektivenwechsel oder als Monitoring System für die
00:25:03: eigene Konstruktivität in der Berichterstattung? Das sind also drei Anwendungsfälle, in denen
00:25:08: ein KI einen deeskalierenden Journalismus unterstützen kann. Doch wie sieht das bei unseren
00:25:14: Fellows aus? Die fünf Kernmitglieder vom Media for Peace Team sind Timur, Darin, Omit, Laura und
00:25:21: Radka. Letztere, also Radka, ist eine Expertin in der Datenanalyse. Sie war bereits in Folge 6 bei
00:25:29: mir zu Gast, in der sprachen wir über Transparenz im Journalismus. Ursprünglich ist Radka aus Tschechien,
00:25:35: deshalb habe ich das Gespräch auf Englisch geführt. Das Media for Peace Update.
00:25:41: Hallo Radka, welcome to the show. Hey Sabrina, thanks for giving us this place.
00:25:46: You are one of five fellows from the core team of the Media for Peace Project. When we last spoke,
00:25:53: you were still doing some research and now you have a kind of finished product called What If.
00:26:02: Today's episode is about AI and I want to know how far have you used AI in your journey till now.
00:26:12: Did you? Yes and no. There is a German expression "Jain", so I think I would go for that.
00:26:20: Just first of all, what if is still not a finished product because I feel like no product can ever
00:26:27: be truly finished. We still keep iterating and testing, so I think that's super important.
00:26:33: And that's also where partially the AI comes to play because we are really using it as kind of a
00:26:41: pairing partner to generate ideas or just get an inspiration on how to tweak the product
00:26:50: or what we can look into further. I think it's super important also for the context setting,
00:26:56: the huge AI revolution for the public and non-experts like us really started within the first month
00:27:04: of our fellowship when the chat GPD was publicly released. So it's been great having that playground
00:27:12: in terms of give me free suggestions on how we could test this hypothesis, for example,
00:27:19: like looking into our people willing to share their opinions or things like that. So that's maybe
00:27:27: interesting that we really use it more in this product development rather than the actual
00:27:32: Content that we are producing. I think that's the baseline. And second thing leading to it,
00:27:39: we are still evaluating into how to actually include it well into what we are putting out there
00:27:46: to our website. Because one of the risks, of course, and that's been topic for ages, is fake news.
00:27:52: We don't want to make the problem of the fake news even bigger, especially given that we are
00:27:57: operating in such sensitive conditions of conflict and post-conflict countries.
00:28:01: So you told us some application or some possibilities to use AI in a way that you really
00:28:11: think about what could happen or what it means. So is it like an ethnic thing?
00:28:18: I mean, there are also other limitations, right? Let's be honest, when it comes to the large
00:28:23: language models and non-western languages, the AI is still not there. So in our countries,
00:28:31: case-country studies at the moment, are Afghanistan and Lebanon, which is why we also kind of pushed
00:28:37: things more into the product development bit. And now more the ethics part, I think there it plays a
00:28:44: role because we've been, of course, experimenting also with image generation. And there it builds a
00:28:52: bit more, because we are using the design fiction methodology, which I'm sure your listeners
00:28:57: already heard about on your podcast.
00:29:00: In the last episode, we mentioned what design fiction is about.
00:29:04: Okay, that's great. So listen to that. And of course, with design fiction, it's really good to have a
00:29:11: designer. But sometimes when you don't have the designer, that's where I think the AI can really
00:29:15: step in and make the people's world words and what they express as something tangible.
00:29:21: So that's what we've done. We've been using the prompt for image generation, so that when people, for
00:29:27: example, talked about ways how to improve remote education in Afghanistan, that was one of the topics
00:29:34: of our dialogues. And they started imagining this truck with solar panels and, you know, other
00:29:41: things like computers inside. It's really cool to have a tool that you can feed all those ideas,
00:29:48: and it gives you an image. And that image really makes it tactile, which is like this big thing of
00:29:53: design fiction. So that really helps us with the process of really make people concentrated on the
00:30:00: topic they are discussing and seeing what they are talking about and spark their imagination
00:30:05: even further.
00:30:06: So that's a really specific idea of using AI in a deescalating, journalistic
00:30:14: environment.
00:30:15: I hope so, yes. I mean, so what is a dialogue host? So we really pride ourselves in giving a nice,
00:30:24: and I don't want to sound condescending or anything or two up in the air, but like a nice cozy
00:30:30: environment, safe environment. This is our baseline, where really, you can express yourself
00:30:37: freely, and also have those imaginative future ideas. So we do think that that really helps to
00:30:45: deescalate the tensions of what's happening right now, and helps shape the thinking in a more
00:30:51: positive future proof way.
00:30:54: So we talked about challenges that comes with AI. So what would you say? What would be a good way
00:31:02: that AI in piecebuilding Journalism becomes a really good team?
00:31:07: Oh, that's like a million dollar question, I feel.
00:31:10: Okay, so maybe you can give me an answer for like five dollars or something. But I know what you
00:31:17: mean. It's really complex.
00:31:18: I think we are still all trying to figure out the ethics guidelines about its use. But I do feel
00:31:28: or what I've seen and I'm personally really excited about is how some newsrooms are trying to use AI
00:31:35: to personalize news, but not in the way that social media did in terms of like social bubbles and
00:31:43: the echo chambers and being only exposed to, you know, the opinions you want to hear, but more into
00:31:50: like, okay, there is a story and giving, you know, extracting, I want to look into something positive
00:31:57: in that story. And AI assistance chatbots are able to pick that up for you. Or, you know, if you are
00:32:05: more interested in listening to the news, you have really good voice assistance now, basically doing
00:32:13: your own personalize podcast. And I think maybe that's really something how we make the news more
00:32:20: accessible and more diverse with the use of technology, but definitely a lot to explore
00:32:27: there. And there is really, really nice inside report about it from the Reuters Institute that's been
00:32:33: published recently.
00:32:34: Okay, we're going to put that in the show notes so people can check it out.
00:32:39: That would be great.
00:32:40: Katke, is there anything you also want to share with us besides AI? What are the next steps in your
00:32:48: team?
00:32:49: Sure. So we are, as I said, we are still testing a lot. And we, of course, the media for peace
00:32:56: fellowship is slowly coming to an end. And the while we are ready with our MVP, we also see that
00:33:05: there is a potential for further dissemination, collaboration, other contexts. So we are hoping
00:33:11: to test how, what if works with Ukrainian journalists maybe, or other people just interested in
00:33:19: the concept, because we just think that this conflict escalation and foresight is really an
00:33:27: interesting area to discover further within media. And yeah, we are here for them.
00:33:33: Okay, Radke, thanks for your time in sharing what's going on with us.
00:33:38: Thank you, Sabrina.
00:33:39: Ihr habt's gehört. Wenn mehr zu "What if" dem Format der Media for Peace Fellows erfahren
00:33:48: möchte, ihr bleibt einfach bei diesem Podcast hängen. Jetzt den Folgebutton klicken und immer
00:33:53: erfahren, was bei den Fellows los ist und mehr zu deeskalierendem Journalismus mitnehmen.
00:33:59: Das war die Folge Media for Peace zum Thema KI im Peace Oriented Journalism.
00:34:04: Beim nächsten Mal geht es um Empathie in den Medien.
00:34:08: Mein Name ist Sabrina Harper und wir hören uns dann bald wieder.
00:34:13: Media for Peace, der Podcast für friedensorientierten Journalismus. Eine Produktion des Media Lab Bayern.
00:34:21: Media for Peace ist eine Kooperation mit dem DTECHBW, Zentrum für Digitalisierungs- und
00:34:28: Technologieforschung der Bundeswehr und der Universität der Bundeswehr München.
00:34:32: [Musik]
Neuer Kommentar