Media for Peace #12 KI im konstruktiven Journalismus

Shownotes

Um Künstliche Intelligenz (KI) kommt man im Journalismus nicht mehr herum. Besonders spannend ist der Einsatz für den deeskalierenden Journalismus. Ob als Sparringspartner, zum Perspektivenwechsel oder als Monitoringsystem für die Qualität der konstruktiven Berichterstattung – KI kann dabei eine große Unterstützung sein, aber man muss wissen, wie.

Für Christina Elmer, Professorin für digitalen Journalismus von der TU Dortmund, ist eine reflektierte Auseinandersetzung mit KI im Journalismus essentiell: „Das Vertrauen der Gesellschaft in den Journalismus darf nicht verspielt werden.“

Radka Pudilova, Fellow im Media for Peace Projekt, berichtet über den Einsatz von KI bei der Entwicklung des Prototypen „What if“: „We are still all trying to figure out the ethic guidelines of the use of AI“.

00:00 Begrüßung 00:59 Design Fiction als Ansatz der Media for Peace Fellows 01:45 Interview: Prof. Christina Elmer, Wie wirkt sich KI auf konstruktiven Journalismus aus? 05:50 Krisenjournalismus und problematische/polarisierende Trainingsdaten der KI 07:15 KI als Monitoring für Textqualität 08:15 Das Potenzial von Datenjournalismus 11:27 Möglichkeiten der KI bei kulturellen Unterschieden und Bias 14:42 Macht KI das Vertrauen in den Journalismus kaputt? 16:58 Der Umgang mit Bots 17:50 Gesellschaftliche Folgen und Studienlage 20:50 Wie setze ich als Journalist konstruktive Arbeit mit KI um? 21:44 Guidelines beim Nutzen von KI 22:40 KI-Fakten und Recheche 23:36 Uniprojekt zu KI und Medien und die Grenzen beim Einsatz von KI 25:42 Interview Radka Pudilova M4P Fellow. Did you use AI in your Work as a fellow? 29:08 Design Fiction and AI in Crisis Journalism 30:54 How can Peacebuilding Journalism and AI profit from each other? 32:43 What are the next steps in the M4P Project? 33:42 Verabschiedung

Publikationen auf die sich Aussagen von Radka Pudilova beziehen: https://reutersinstitute.politics.ox.ac.uk/digital-news-report/2023

Weitere Informationen zu Media for Peace findest du auf https://www.media-lab.de/de/media-for-peace

Das ist Media for Peace. Der Podcast auf den Spuren des peace-oriented Journalismus. Eine Kooperation mit der Universität der Bundeswehr München und von DTEC.BW – Zentrum für Digitalisierungs- und Technologieforschung der Bundeswehr.

Transkript anzeigen

00:00:00: Journalismus der Frieden ermöglicht. Das ist Media for Peace, ein Podcast des Media Lab Bayern.

00:00:12: Willkommen bei der neuen Ausgabe von Media for Peace. Ich bin Sabrina Harper und heute geht es um

00:00:18: künstliche Intelligenz. Ich möchte gern wissen, inwieweit KI für einen deeskalierenden und konstruktiven

00:00:26: Journalismus eingesetzt werden kann oder bereits eingesetzt wird. Dazu habe ich Christina Elmar

00:00:32: eingeladen. Sie ist Professorin für digitalen Journalismus an der TU Dortmund. Außerdem schauen wir

00:00:39: selbstverständlich bei unseren Media for Peace Fellows vorbei. Das ist ja quasi unser USP. Wir

00:00:45: verbinden Wissenschaft und Praxis und deshalb kommen bei uns auch immer die Fellows zu Wort.

00:00:50: Dieser Podcast begleitet sie bei ihrer Formatentwicklung für einen deeskalierenden Journalismus in

00:00:56: Krisenregionen. Wenn du schon in unsere vorherige Folge, also die Live-Podcast-Folge, reingehört

00:01:02: hast, dann weißt du ja schon, dass das Media for Peace Projekt inzwischen konkreter geworden ist.

00:01:08: Die Fellows haben ein Format mit dem Ansatz "Design Fiction" gewählt. Wenn du noch nicht genau

00:01:14: weißt, was das ist, kein Problem, dann hören die Folge 11 rein. Da wird das etwas erklärt.

00:01:19: Radka ist eine von den Fellows und sie wird mir später in diesem Podcast noch verraten,

00:01:26: ob KI auch bei der Media for Peace Formatentwicklung eine Rolle gespielt hat. Bevor ich Radka bei mir

00:01:32: begrüßen darf, holen wir uns noch den Input von Professorin Christina Elmar ab, um zu verstehen,

00:01:38: wo die Typen und Chancen im Einsatz von KI liegen.

00:01:41: Christina, willkommen hier bei uns im Podcast. Danke, dass ich dabei sein darf. Ich sage schon

00:01:51: mal Danke, weil du hast den absoluten Plan, wenn es um KI und konstruktiven Journalismus geht. KI

00:01:57: hat ja überall Einzug gehalten und alle sprechen darüber, inwiefern wirkt sich denn das speziell

00:02:03: auf konstruktiven Journalismus aus? Ja, gute Frage. Im ersten Moment denkt man ja, wie soll das

00:02:09: zusammenpassen? Das eine ist total technisch. Der ganze KI-Bereich, da geht es um Algorithmen,

00:02:16: die aus Trainingsdaten lernen und das andere Konstruktivität hat ja auch einen sehr empathischen

00:02:21: Kern. Da geht es dann halt auch darum, eben Lösungen zu finden, die das ganze Spektrum auch

00:02:27: darstellen der Möglichkeiten Menschen auch wirklich zu helfen, mithilfe von Berichterstattung auf

00:02:32: neue Ideenfeld auch zu kommen. Also, dass es ein Feld, das erst mal sich ganz anders anfühlt als

00:02:38: jetzt der KI-Bereich, wo es häufig sehr technisch ist. Aber es gibt natürlich schon Möglichkeiten,

00:02:44: wie man zum Beispiel auch KI-Modelle ganz grundsätzlich konstruktiv gut einsetzen kann oder

00:02:50: wie man sie einsetzen kann, um eben zum Beispiel mehr Perspektiven in die Berichterstattung zu

00:02:55: bringen. Weil wir uns ja auch bewusst machen müssen, dass Konstruktivität gar nicht nur

00:02:59: bedeutet über Lösungen nachzudenken, sondern auch die Berichterstattung ein bisschen nuancierter

00:03:05: zu gestalten, dass man eben nicht nur polarisiert, sondern ja auf dem ganzen Spektrum mehr unterschiedliche

00:03:11: Perspektiven darstellt. Dabei können tatsächlich auch technologische Tools helfen. Also, wie

00:03:16: stelle ich mir das dann vor? Also, wie alle kennen ja jetzt schon Chatchy P.T., schreibe ich dann da rein,

00:03:22: gebe mir die Sicht einer jungen Frau mit 20, gebe mir die Sicht eines Mannes mit 40,

00:03:29: gebe mir die Sicht eines Quiren, der im Ruhrpott lebt. Oder wie mache ich es? Also, da muss ich mir aber

00:03:37: auch eine Menge überlegen. Ist das überhaupt ein Weg, den ich da gerade vorschlage? Das ist

00:03:42: ein möglicher Weg tatsächlich, weil wir ja davon ausgehen, dass in Redaktionen ganz viele Perspektiven,

00:03:47: die im Publikum quasi wichtig sind, gar nicht vertreten sind. Das heißt, wir haben in der

00:03:52: Redaktion, und das natürlich auch ein nochmal ein anderes Thema, Diversität. Da haben wir wirklich

00:03:58: auch Nachholbedarf, aber selbst wenn wir das wirklich auch gut hin bekämen, wir hätten immer

00:04:03: noch viele Perspektiven, die fehlen. Und da kann es total hilfreich sein im Vorfeld von der Berichterstattung,

00:04:08: wenn ich in der Redaktion sitze und recherchiere, meinetwegen zum Heizungsgesetz recherchiere.

00:04:14: Und ich möchte gerne wissen, wie muss ich denn am Ende berichten, damit das wirklich auch all

00:04:19: meinen unterschiedlichen Leserinnen und Lesern hilft? Dann wäre es natürlich ein Weg, ChatGbt zu

00:04:24: fragen. Tu mal bitte so, als ob du eine junge, alleinerziehende Frau bist, die in einer kleinen

00:04:30: Wohnung lebt, und gib mir mal die wichtigsten Fragen, die ich jetzt beantworten soll und sag mir auch,

00:04:35: was ich auf keinen Fall falsch machen darf in diesem Artikel, was dich aufregen würde. Das

00:04:39: funktioniert bei ChatGbt so ein bisschen, aber man kann natürlich auch Algorithmen daraufhin

00:04:45: spezifisch trainieren und denen noch ein bisschen mehr Futter an die Hand geben, zum Beispiel aus der

00:04:50: eigenen Marktforschung oder auch eigenen Interviews, die man mit Leserinnen und Lesern geführt hat,

00:04:54: damit die einfach realistischer werden. Im Moment ist das natürlich sehr schematisch und ja von dem

00:05:01: abgeleitet, was ChatGbt so aus dem Internet gelernt hat, da muss man ja mal aufpassen. Ja, es kann

00:05:06: dann auch immer nur aus der Vergangenheit lernen und in die Zukunft extrapolieren. Das ist ohnehin

00:05:10: so ein bisschen ein philosophisches Problem, weil natürlich dürfen sich Menschen auch bitte weiter

00:05:14: entwickeln und wir wollen ja nicht immer nur die Vergangenheit reproduzieren. Aber ja, also man

00:05:19: könnte auf diese Weise zumindest Redaktionen ermöglichen, dass sie im Prozess des Artikel

00:05:24: "Recherchierendsschreibens" immer mal wieder so kleine Gegenschüsse sozusagen bekommen. Also

00:05:30: ja, vielleicht ist das nicht der richtige Begriff, also auf jeden Fall aus verschiedenen Perspektiven

00:05:35: immer mal wieder neue Fragen reingespielt bekommen. Und das ist erstmal, glaube ich, ganz gut. Aber

00:05:41: die Ideen gehen natürlich darüber hinaus. Okay, also pass mal auf. Halte die Ideen bitte kurz fest.

00:05:46: Ich muss noch eine Rückfrage stellen. Du hast nämlich gerade schon gesagt, ChatGbt ist in der

00:05:50: Vergangenheit und so weiter und so fort. Wenn man sich allerdings aus dem Netz speist, dann stolpert

00:05:56: man doch oft eher über Streit, Polarisierung, negative Konnotation. Also es ist ja schon,

00:06:04: keine Ahnung, wenn wir jetzt über Krisensituationen nachdenken. Bei uns ist ja der Fokus auf Krisengebiete,

00:06:11: dann werde ich eher sowas finden wie Opferzahlen, Ausschreitungen und so weiter. Das macht es aber

00:06:17: auch recht schwer, oder? Das ist auch ein Problem. Zumal wir ja gar nicht genau wissen,

00:06:22: welche Trainingsdaten da ganz konkret drinstecken. Also man würde das gerne mal wirklich in der Tiefe

00:06:27: untersuchen. Leider ist das in den seltensten Fällen irgendwie öffentlich. Also es gibt Open-Source-Modelle,

00:06:32: wo man das weiß. Aber gerade bei den großen Leistungsstarken weiß man nur, dass da einfach

00:06:38: sehr viel vom Internet drinsteckt und das stimmt natürlich. Also ganz häufig sind es dann eben

00:06:43: eher die, zum Beispiel auch aus den Nachrichten, die Krisen- und Katastrophenmeldungen oder das,

00:06:48: was polarisiert. Es ist ganz viel Wissenschaftliches drin. Also Wikipedia und auch andere Datenbanken,

00:06:55: die eher Informationen enthalten, die so sehr neutral beschreibend sind. Aber so diese Lebensrealität,

00:07:03: zum Beispiel, die man ja gerne mal reinbringen möchte, vielleicht wenn man konstruktiv über Themen

00:07:07: nachdenkt, ja, wo soll die herkommen? Die findet sich dann da recht selten. Okay. So,

00:07:12: springen wir noch mal zurück. Vielen Dank noch mal für diesen Ausflug. Du hast ja gesagt,

00:07:16: da gibt es darüber hinaus auch einige Dinge. Was denn? Also es gibt einmal Ideen, ob man nicht

00:07:23: eigentlich auch künstliche Intelligenz nutzen kann, um zu messen, wie konstruktiv die eigene

00:07:28: Berichterstattung ist. Das finde ich dann spannend. Das geht dann einfach davon aus, dass ich dem

00:07:32: Algorithmus mal wegen 100 sehr konstruktive Artikel gebe und denen dann einfach lernen lasse,

00:07:38: was die möglicherweise charakterisiert. Das können dann bestimmte Aufbau sein, das können

00:07:43: Wörter sein, da das ja häufig Blackbox-Systeme sind, werden wir es nie so richtig erfahren.

00:07:47: Aber die Vorstellung ist, dass dann möglicherweise dieses System am Ende messen kann, ob ein Artikel

00:07:53: sehr oder gar nicht konstruktiv ist. Das ist vielleicht schon mal so als Monitoring-System

00:07:58: ganz hilfreich, wo das auch schon eingesetzt wird in Redaktionen. Das ist beim Thema Diversität.

00:08:03: Also sind die Expert*innen eigentlich, die wir so zitieren, sind die eigentlich unterschiedlich

00:08:08: genug? Kommen Frauen und Männer unterschiedlich oft vor? Wie völlig überraschend ist das so?

00:08:13: Da ist halt sehr, sehr viel Männer aus bestimmten Kulturkreisen zitiert werden und da können eben

00:08:19: KI-Systeme auch helfen, das einfach sichtbar zu machen und das den Redaktionen einfach mal ganz

00:08:24: klar auf einem Dashboard sichtbar zu machen, dass sie da eine Verzerrung reproduzieren, die es

00:08:30: möglicherweise in der Wissenschaft auch gibt. Klar, aber das muss man ja nicht auch noch quasi

00:08:34: verstärken. Genau, das sind so einige Möglichkeiten und dann ist mir selbst natürlich der Bereich

00:08:41: Datenjournalismus ganz nah. Da habe ich auch selbst lange drin gearbeitet in diesem Feld und

00:08:46: da geht es häufig darum, große Datenmengen auszuwerten. Im Moment arbeiten auch viele Redaktionen mit

00:08:52: Satellitendaten zum Beispiel. Und da gibt es zum Beispiel eine schöne Recherche vom Bayerischen

00:08:57: Rundfunk zum Thema Hitzeinseln in der Stadt, die auch auf Satellitendaten basiert, die mithilfe von

00:09:02: künstlicher Intelligenz analysiert wurden, weil es einfach so Riesendatenmengen sind, kann man die

00:09:07: schon gar nicht übereinander bringen ohne Lerndealgorithmen tatsächlich. Und auf diesen Karten,

00:09:13: die dabei entstehen, kann man wirklich bis auf seine Straße reinsoumen und sieht dann, lebe ich

00:09:18: eigentlich in so einer Hitzeinsel oder lebe ich in einem Bereich der Stadt, der auch in einem sehr

00:09:23: heißen Sommer noch kühl bleibt. Und solche Themen finde ich sind dann sehr schön, weil sie zeigen,

00:09:27: wie viel unterschiedliche Realitäten es gibt. Sie zeigen die volle Bandbreite von Extremen,

00:09:35: aber auch Bereichen, in denen es eher moderat bleibt. Man kann Lösungen finden, weil man ja sieht,

00:09:40: wo keine Hitzeinseln sind, dann sieht man direkt die Faktoren, man sieht den Park, man sieht Wasser

00:09:45: und so weiter. Das heißt, solche sehr kleinräumigen Analysen können dann wirklich helfen, ja auch

00:09:51: positive Vorbilder ausfindig zu machen. Das finde ich noch sehr schön. Und dann, finde ich, dürfen

00:09:57: wir auch nicht vergessen, dass wir ja mit Hilfe von KI Beiträge auch in unterschiedlichen Sprachen

00:10:02: zum Beispiel ausspielen können oder auch mit unterschiedlichem Sprachlevel, also sozusagen

00:10:09: für einfache Sprache vielleicht auch. Das heißt, da können uns Lerndealgorithmen helfen, dass wir

00:10:15: einfach mehr Menschen erreichen können, schon allein durch die richtige Sprache. In Krisengebieten

00:10:20: ist das ja auch manchmal die Herausforderung, die Gegenpartei oder die Gegenseite zu erreichen.

00:10:26: Auch auf sprachlichen Niveau. Von daher ist es auch etwas, glaube ich, was weltweit interessant ist.

00:10:34: Das glaube ich auch. Und jetzt kommen ja auch die ersten Werkzeuge oder Apps vor allen Dingen,

00:10:41: mit denen man dann einfach auch direkt übersetzen kann und wo die Stimme dann auch noch synthetisiert

00:10:46: wird, die eigene. Also ich bin sehr gespannt, wie das unser Verhältnis zur eigenen Stimme und auch

00:10:51: zur Authentizität in dem Bereich verändern wird. Ich glaube, das wird es auf jeden Fall. Aber wenn

00:10:56: dennoch die Person quasi der Urheber ist, das gesagten, die ich da höre, wer ist jetzt eigentlich

00:11:03: mir gar nicht so wichtig, ob die Stimme echt echt ist oder synthetisiert, aber im Einverständnis sozusagen,

00:11:09: weil dann könnte ich es wenigstens verstehen. Aber da müssen wir uns auch, glaube ich, noch

00:11:14: wirklich ein neues Verständnis angewöhnen, auch was so die Transparenz angeht, dass man wirklich

00:11:19: nicht das Gefühl hat, man ist plötzlich umgeben von nur noch künstlichen Stimmen.

00:11:24: Ja. Siehst du auch Einsatzfelder, wenn es um kulturelle Unterschiede geht?

00:11:30: Ja, grundsätzlich kann ich mir das schon gut vorstellen. Aber ich kenne jetzt kein konkretes

00:11:36: Beispiel, wo auf dem Bereich sozusagen trainiert wurde. Aber eigentlich kann man schon sagen,

00:11:42: überall da, wo es ausreichend aussagekräftiges Trainingsmaterial gibt, da kann man auch einen

00:11:48: Algorithmus trainieren, das dann wiederum zu reproduzieren in einem neuen anderen Umfeld.

00:11:52: Deswegen würde ich da jetzt erst mal gar nicht grundsätzlich denken, dass das unmöglich ist.

00:11:57: Aber ich glaube, dass gerade bei kulturellen Fragestellungen natürlich auch viel zwischen den

00:12:01: Zahlen passiert, viel noch mal auf einem anderen Level zu beachten ist und dass dafür vielleicht

00:12:09: auch einfach KI-Algorithmen noch nicht gut genug mit Minderheiten zum Beispiel zurechtkommen,

00:12:14: wenn wir es ihnen nicht explizit sagen. Das ist ja immer so das Problem einerseits,

00:12:19: tenzieren sie da zu diskriminieren, weil sie eben aus den Trainingsdaten immer nur das

00:12:24: Aussagekräftige lernen und häufig dann die kleinen Gruppen hinten runterfallen, auf

00:12:28: die man aber besonders acht geben muss. Man kann es ihnen aber natürlich schon auch hart beibringen.

00:12:34: Also hart, man eigentlich in dem Fall tatsächlich, indem man es reinprogrammiert. Aber das muss man

00:12:38: vorher, man muss sich dessen dann bewusst sein und man muss es dann mit Programmierern zusammen

00:12:43: auch beschreiben können, was man eigentlich möchte. Das heißt, da braucht man schon echt viel,

00:12:47: viel arbeiten, interdisziplinieres Team dafür und so. Also das fällt da sehr vorsichtig sozusagen

00:12:55: mit irgendwelchen Life-Experimenten. Aber da würde ich gerne mal was sehen. Ja, dieser berühmte

00:13:00: Algorithmic-Bias, der umhergeht und der manchmal dazu führt, dass eine KI aus einer Korrelation,

00:13:09: eine Chaos-Alität macht zum Beispiel und dann kommt etwas ganz Seltsames raus. Genau,

00:13:14: oder die Korrelation einfach verstärkt und dafür sorgt, dass sie zu regel wird und alles,

00:13:21: was quasi sich anders verhält, gar nicht mehr wirklich durchkommt. Und das muss ja auch nichts

00:13:26: Böses sein. Also das kann auch sein, wie sieht ein typischer Arzt aus und wir haben einfach alle

00:13:32: ein Bild von dem Arzt im Kopf und zum Beispiel nicht von einer Ärztin. Ja, eben genau, das,

00:13:39: was wir so im Kopf haben, ganz häufig spiegelt sich in diesen Verzerrungen in den System eigentlich

00:13:45: das wieder, was in der Gesellschaft schiefhängt. So, man kann das eigentlich oft so so ableiten.

00:13:50: Dadurch kann man auch sagen, sind sie häufig ganz gute Signalsysteme. Also man sieht dann

00:13:55: plötzlich, oh verdammt, wir denken wirklich alle an Männer, wenn wir an Ärzt denken. Wo können

00:14:00: wir denn dann noch anfassen, um das zu ändern? Also es ist eigentlich auch, wenn man es konstruktiv

00:14:05: begreift, so eine Hinführung vielleicht zur Lösung. Aber im ersten Moment tendieren die Systeme dann

00:14:12: dazu diesen Effekt, den sie gefunden haben. Meistens denkt man an Männer, das dann sozusagen

00:14:16: vorzuschreiben, sodass das Ergebnis dann ist. Es werden nur noch Männer gezeigt. Und dann wird

00:14:23: es natürlich problematisch. Das ist, glaube ich, echt so eine Aufforderung an die Gesellschaft,

00:14:27: da an vielen Stellen viel stärker jetzt auch noch mal in den Dialog zu gehen. So was wollen wir

00:14:31: denn eigentlich, wo wirklich haben? Welche Grundwerte sind uns an welcher Stelle wichtig? Wie

00:14:36: wichtig ist Fairness? Wie wichtig ist Transparenz? Ja, dafür brauchen wir eigentlich viel mehr Foren,

00:14:41: in denen wir das diskutieren können. Transparenz ist eben auch so ein Thema oder ein wichtiger Aspekt

00:14:47: und das andere für Antwortungsbewusstsein. Das haben wir jetzt ja beide so ein bisschen

00:14:51: angeschnitten. Diese zwei Werte sind ja auch sehr, sehr stark verbunden mit dem Vertrauen in den

00:14:58: Journalismus. Ich frage dich mal ganz direkt, auch wenn es eine sehr komplexe Angelegenheit

00:15:05: wahrscheinlich ist, macht KI das Vertrauen in den Journalismus kaputt oder stärkt? Ist das Vertrauen?

00:15:13: Einerseits würde ich sagen, es kommt natürlich total darauf an, wie der Journalismus mit ihm

00:15:17: umgeht. Aber auf lange Sicht sehe ich eigentlich gerade eine ganz große Chance, nämlich müssen

00:15:24: wir davon ausgehen und es geht ja auch schon los, dass einfach sehr viel synthetisiert wird im Internet

00:15:29: mithilfe von KI-Systemen im Bereich Videos, im Bereich Bilder und so weiter. Und die schöne

00:15:36: Vorstellung, dass man das mit einem Wasserzeichen alles versehen könnte und labeln könnte als

00:15:40: synthetisch, ist glaube ich wirklich hoffnungslos. Das heißt, das können wir uns abschminken. Und

00:15:45: dann ist eigentlich meine Hoffnung, dass in Zukunft es wieder mehr auf die Quelle ankommt und mehr

00:15:50: vertrauenswürdige Medienmarken zum Beispiel oder auch andere vertrauenswürdige Quellen eine

00:15:55: wichtige Rolle spielen, weil wir als Bürgerinnen und Bürger dann davon ausgehen müssen, dass

00:16:01: sehr vieles, was uns im Internet begegnet, wahrscheinlich irgendwie synthetisiert ist oder

00:16:07: in Teilen zumindest manipuliert sein könnte, ohne dass wir es merken. Die Systeme, um das aufzudecken,

00:16:13: so Verifikationstools und so, die gibt es natürlich, aber die können auch immer nur zu einer bestimmten

00:16:18: Wahrscheinlichkeit sagen, wie falsch es sein könnte. Und das ist auch so ein, am Ende so ein

00:16:24: Red-Race, wo man einfach dann die eine Technologie läuft, der anderen hinterher muss man da wahrscheinlich

00:16:29: sagen. Also wie gesagt, ich hoffe, dass es am Ende dazu führt, dass der Journalismus gestärkt

00:16:35: daraus hervorgeht. Aber er darf eben jetzt auch nicht das vertrauen, was er noch hat in der

00:16:39: Bevölkerung. Das zeigen ja auch die Studien eigentlich sehr schön, dass das schon noch in

00:16:44: weiten Teilen da ist, so zumindest mehr oder weniger, aber zumindest gibt es gerade in Deutschland

00:16:50: ein relativ hohes Level an Medienvertrauen. Das darf er jetzt nicht verspielen. Das wäre schade.

00:16:56: Eine weitere Herausforderung eben gerade in Krisengebieten sind Bots etc. Also auf Social Media,

00:17:04: dazu haben wir auch mal eine extra Folge in Staffel 1 gemacht. Wie schätzt du denn da die Lage ein?

00:17:11: Also dass wir die Bots haben, dass wir uns darüber bewusst sind, Fragezeichen, wie wir

00:17:19: mit umgehen und was die Anrichten in der Realität, genau bei dem letzten, da würde ich auch sagen,

00:17:28: da liegt eigentlich jetzt gerade die große Forschungsfrage, nämlich wir sehen das Phänomen,

00:17:32: aber was richtet es tatsächlich in der Realität an? Also wir kennen, was jetzt

00:17:37: Desinformation angeht, schon ja auch Effekte in der realen Welt, da gibt es ja auch diverse

00:17:42: sehr eindrucksvolle Beispiele, jetzt zum Beispiel auch beim Impsen, dass das einfach abgelehnt wurde,

00:17:48: weil Menschen überzeugt waren, dass es wahnsinnig schädlich ist und irgendwelche Chips

00:17:53: da drin sind und so weiter. Also es sind schon auch reale Folgen, die man beobachtet. Die Frage

00:17:58: ist nur, gibt es so einen systematischen Effekt auf die Gesellschaft und das, was sie so glaubt

00:18:03: über diese einzelnen Effekte hinaus? Und da gab es jetzt zuletzt eher Studien, die gesagt haben,

00:18:09: na ja, so schlimm ist das eher wahrscheinlich nicht mit den Echo-Kammern und auch mit der

00:18:15: Verhaltens- oder Einstellungsänderung durch soziale Netzwerke und durch das, was da so passiert.

00:18:20: Also die gute Nachricht ist, offensichtlich sind Menschen doch resilienter, was so was angeht und

00:18:26: lassen sich nicht sofort irgendwie dann, jedenfalls in der Tendenz, dann von Bots und

00:18:31: ähnlichen oder von Hate Speech und Desinformation direkt so stark beeinflussen. Aber ganz grundsätzlich

00:18:38: würde ich schon sagen, müssen wir da irgendwie auch aufpassen, dass sich dann wiederum, weil

00:18:45: sozusagen die digitale Öffentlichkeit so stark von denen manchmal geprägt ist bei bestimmten Themen,

00:18:51: dass sich dann nicht die Leute zurückziehen in ihre Kleingruppen, die dann vielleicht sich dann um

00:18:58: so mehr radikalisieren können. Also ich habe schon den Eindruck, dass Social Media Kommentare,

00:19:04: das Bild, das ich eh schon habe, verfestige. Und das ist ja oft in Krisengebieten auch die große

00:19:11: Herausforderung, dass ich eben über meine bisherigen Annahmen darüber hinaus komme. Und das

00:19:18: stelle ich mir besonders schwierig vor. Wurde das in dieser Studie, die du jetzt zitiert,

00:19:22: auch abgedeckt? Weil ich bin jetzt tatsächlich sehr überrascht über dieses Ergebnis.

00:19:27: Ja, also was man ja auch schon weiß, ich glaube, das gilt am Ende beides. Auch gleichzeitig ist

00:19:32: das soziale Netzwerke natürlich dazu tendieren eher auch so Emotionen wie Ärger, Hass, Angst und

00:19:41: so weiter, sozusagen die zu verstärken, weil das eben auch die Emotionen sind, die dazu führen,

00:19:45: dass Beiträge geteilt werden und Menschen lange auf diesem Plattform bleiben. Und das sind die

00:19:50: zentralen Metriken, nach denen dort Beiträge optimiert werden oder die Streams, die wir sehen,

00:19:56: optimiert werden eher. Und das leitet natürlich schon dazu, dass wir solche Beiträge eher sehen,

00:20:04: dass wir mehr davon sehen und natürlich beeinflusst das Menschen. Ich glaube, davon können

00:20:08: wir auf jeden Fall ausgehen. Aber es ist wohl nicht so, dass dadurch ganz schnell sozusagen sich die

00:20:15: Einstellungen verändern lassen, wenn man jemandem jetzt einen ausgewogeneren Facebook Feed zum

00:20:21: Beispiel zeigt, dass wir jetzt aus der Studie sozusagen das Ergebnis und ja, es ist ein bisschen,

00:20:27: also milder, so ein bisschen die Angstabfindung, die man da haben kann. Aber natürlich müssen

00:20:31: wir uns auch darüber ganz grundsätzlich Gedanken machen, aber auch im Klaren darüber sein. Ich

00:20:35: glaube, ganz viele, die auf den Netzwerken sind, denen ist das gar nicht so bewusst, dass eben

00:20:41: Beiträge eher viel mehr Sichtbarkeit bekommen, die sehr krasse Emotionen hervorrufen und dass man

00:20:48: sich selbst ja auch dagegen schützen kann. Wenn ich jetzt ein Journalist oder eine Journalistin

00:20:53: bin, die konstruktiv arbeiten möchte und KI einsetzt und ich bin aber noch nicht so überzeugt

00:21:00: und denke mir, oh, diese Algorithmic Bias und diese Informationen und bisschen negativ alles da im

00:21:07: Internet und so weiter. Was würdest du mir jetzt raten, wie ich KI positiv in meine Arbeit integrieren

00:21:14: kann? Also aktueller Stand, es entwickelt sich ja rasant, müssen wir dazu sagen. Ja, das stimmt.

00:21:20: Also ich würde jedem vor allen Dingen auch erst mal raten, so ein Fenster, einen Tab im Browser mit

00:21:27: LGBT einfach immer mal offen zu haben und zwischendurch immer mal so zu experimentieren. Was bekomme

00:21:33: ich denn da zurück? Man hat manchmal so kleine Ideen, die einem ganz viel auch zeigen, was geht

00:21:38: da und was geht da nicht. Aber Redaktionen und auch einzelnen Journalist*innen würde ich vor allen

00:21:43: Dingen raten sich im Vorfeld Gedanken zu machen, welche Werte ihnen wichtig sind dabei. Weil es

00:21:49: einfach immer die Frage ist, wenn ich KI nutze, dann sollte ich es wertegeleitet tun und um welche

00:21:54: Werte geht es mir denn da? Geht es mir um Fairness bezüglich bestimmter Gruppen? Was bedeutet

00:21:59: eigentlich Fairness für mich? Wie möchte ich damit umgehen, was meine Zielgruppe angeht,

00:22:04: aber andere vor allen Dingen auch kleinere Gruppen, Minderheiten, die mir wichtig sind? Wie

00:22:08: sollen die behandelt werden? Auch letztlich, welche Guidelines kann ich mir setzen? Es gibt einige

00:22:14: Redaktionen, die da schon wirklich ganz gute Guidelines veröffentlicht haben. Der bayerische

00:22:18: Rundfunk ist da zum Beispiel zu nennen. Das ist dann schon ja so ein kleiner Katalog an Richtlinien,

00:22:25: in denen man sich einfach mal daneben legen kann. So, dann kann man schon mal nicht in die ganz

00:22:29: falsche Richtung laufen. Und die Frage, finde ich, die man sich auch stellen sollte und die man klären

00:22:35: sollte für sich ist, wer trägt eigentlich wofür die Verantwortung? Also wie kann ich sicherstellen,

00:22:40: dass ich nach bestem Wissen und Gewissen hier arbeite, wenn ich dieses System benutze? Und gerade

00:22:46: bei ChatGPT, was ja jetzt kein System ist, was Fakten irgendwie bewertet, sondern da wird ja

00:22:52: einfach nur plausibler Text erzeugt. Und das war es. Da muss ich mir bewusst sein, dass die Fakten,

00:22:57: die dann da drin stehen in dem Text, die am ersten Mal keine Grundlage, sondern nur,

00:23:01: dass es halt eine Wahrscheinlichkeitsrechnung, die dahinter steckt. Und das heißt, die muss

00:23:05: ich verifizieren. Ich muss möglicherweise mit diesen Texten am Ende viel mehr prüfen, als

00:23:10: wenn ich sie selbst recherchiert hätte. Da ergeben sich dann bestimmte Anwendungsbereiche dann auch

00:23:15: daraus, die ich dann, also da möchte ich keine KI dafür benutzen, weil ich eben am Ende viel

00:23:20: mehr zu tun habe. Aber vielleicht ist es hilfreich zum Sparring, wenn ich mir meinen neuen Einstieg

00:23:25: überlege oder eine Vorstrukturierung oder wie ich auch gesagt habe, vorhin mit den verschiedenen

00:23:30: Perspektiven. So dafür kann es total hilfreich sein. Aber das muss man dann alles mal ausprobieren. Und

00:23:36: was wir mit unseren Studenten und Studentinnen schon gemacht haben, was sehr schön funktioniert hat,

00:23:40: das war, dass die sich Aufgaben gesucht haben, die sie gut einschätzen können, also wie sie

00:23:45: selber auch eine bisschen Expertise haben und wo sie sich auskennen. Und die haben versucht,

00:23:50: die komplette Aufgabe dann mithilfe von ChatGPT zu lösen und haben analysiert, wie gut das klappt.

00:23:55: Und das war toll. Also wir hatten eine Radiosendung, die komplett von ChatGPT geplant und durchgefühlt

00:24:01: wurde und hat sich dann rausgestellt, zum Beispiel die Moderation, vor allen Dingen, wenn eine Panne

00:24:06: passiert, die ist nicht so schlecht. Musikauswahl war auch ganz okay, aber die Nachrichten ging

00:24:10: eigentlich gar nicht. Und das hat der Student natürlich auch sofort gesehen. Und das heißt so

00:24:15: dieses "ich suche mir eine Aufgabe, ein Thema, in dem ich mich auskenne und dann vergleiche ich mal,

00:24:20: was kommt da zurück von dem System?" Das zeigt einem schon irgendwie auch ganz gut, wo die Grenzen

00:24:25: sind. Und trotzdem hätte ich aber, würde ich jedem raten, einfach mit ganz viel Freude auch erst mal

00:24:30: zu experimentieren, weil das ja ja erst mal auch eine Technologie ist, die man kennenlernen muss,

00:24:35: um mit ihr gut umzugehen und um sie auch kritisch begleiten zu können. Und das ist ja auch unser

00:24:40: Auftrag im Journalismus. Vielen Dank, Christina, für die Einblicke. In alle möglichen Bereiche,

00:24:46: wie wir KI in einer deeskalierenden Sprache in einem konstruktiven Journalismus einsetzen können.

00:24:53: Super gerne. Vielen Dank nochmal. Sparing Perspektivenwechsel oder als Monitoring System für die

00:25:03: eigene Konstruktivität in der Berichterstattung? Das sind also drei Anwendungsfälle, in denen

00:25:08: ein KI einen deeskalierenden Journalismus unterstützen kann. Doch wie sieht das bei unseren

00:25:14: Fellows aus? Die fünf Kernmitglieder vom Media for Peace Team sind Timur, Darin, Omit, Laura und

00:25:21: Radka. Letztere, also Radka, ist eine Expertin in der Datenanalyse. Sie war bereits in Folge 6 bei

00:25:29: mir zu Gast, in der sprachen wir über Transparenz im Journalismus. Ursprünglich ist Radka aus Tschechien,

00:25:35: deshalb habe ich das Gespräch auf Englisch geführt. Das Media for Peace Update.

00:25:41: Hallo Radka, welcome to the show. Hey Sabrina, thanks for giving us this place.

00:25:46: You are one of five fellows from the core team of the Media for Peace Project. When we last spoke,

00:25:53: you were still doing some research and now you have a kind of finished product called What If.

00:26:02: Today's episode is about AI and I want to know how far have you used AI in your journey till now.

00:26:12: Did you? Yes and no. There is a German expression "Jain", so I think I would go for that.

00:26:20: Just first of all, what if is still not a finished product because I feel like no product can ever

00:26:27: be truly finished. We still keep iterating and testing, so I think that's super important.

00:26:33: And that's also where partially the AI comes to play because we are really using it as kind of a

00:26:41: pairing partner to generate ideas or just get an inspiration on how to tweak the product

00:26:50: or what we can look into further. I think it's super important also for the context setting,

00:26:56: the huge AI revolution for the public and non-experts like us really started within the first month

00:27:04: of our fellowship when the chat GPD was publicly released. So it's been great having that playground

00:27:12: in terms of give me free suggestions on how we could test this hypothesis, for example,

00:27:19: like looking into our people willing to share their opinions or things like that. So that's maybe

00:27:27: interesting that we really use it more in this product development rather than the actual

00:27:32: Content that we are producing. I think that's the baseline. And second thing leading to it,

00:27:39: we are still evaluating into how to actually include it well into what we are putting out there

00:27:46: to our website. Because one of the risks, of course, and that's been topic for ages, is fake news.

00:27:52: We don't want to make the problem of the fake news even bigger, especially given that we are

00:27:57: operating in such sensitive conditions of conflict and post-conflict countries.

00:28:01: So you told us some application or some possibilities to use AI in a way that you really

00:28:11: think about what could happen or what it means. So is it like an ethnic thing?

00:28:18: I mean, there are also other limitations, right? Let's be honest, when it comes to the large

00:28:23: language models and non-western languages, the AI is still not there. So in our countries,

00:28:31: case-country studies at the moment, are Afghanistan and Lebanon, which is why we also kind of pushed

00:28:37: things more into the product development bit. And now more the ethics part, I think there it plays a

00:28:44: role because we've been, of course, experimenting also with image generation. And there it builds a

00:28:52: bit more, because we are using the design fiction methodology, which I'm sure your listeners

00:28:57: already heard about on your podcast.

00:29:00: In the last episode, we mentioned what design fiction is about.

00:29:04: Okay, that's great. So listen to that. And of course, with design fiction, it's really good to have a

00:29:11: designer. But sometimes when you don't have the designer, that's where I think the AI can really

00:29:15: step in and make the people's world words and what they express as something tangible.

00:29:21: So that's what we've done. We've been using the prompt for image generation, so that when people, for

00:29:27: example, talked about ways how to improve remote education in Afghanistan, that was one of the topics

00:29:34: of our dialogues. And they started imagining this truck with solar panels and, you know, other

00:29:41: things like computers inside. It's really cool to have a tool that you can feed all those ideas,

00:29:48: and it gives you an image. And that image really makes it tactile, which is like this big thing of

00:29:53: design fiction. So that really helps us with the process of really make people concentrated on the

00:30:00: topic they are discussing and seeing what they are talking about and spark their imagination

00:30:05: even further.

00:30:06: So that's a really specific idea of using AI in a deescalating, journalistic

00:30:14: environment.

00:30:15: I hope so, yes. I mean, so what is a dialogue host? So we really pride ourselves in giving a nice,

00:30:24: and I don't want to sound condescending or anything or two up in the air, but like a nice cozy

00:30:30: environment, safe environment. This is our baseline, where really, you can express yourself

00:30:37: freely, and also have those imaginative future ideas. So we do think that that really helps to

00:30:45: deescalate the tensions of what's happening right now, and helps shape the thinking in a more

00:30:51: positive future proof way.

00:30:54: So we talked about challenges that comes with AI. So what would you say? What would be a good way

00:31:02: that AI in piecebuilding Journalism becomes a really good team?

00:31:07: Oh, that's like a million dollar question, I feel.

00:31:10: Okay, so maybe you can give me an answer for like five dollars or something. But I know what you

00:31:17: mean. It's really complex.

00:31:18: I think we are still all trying to figure out the ethics guidelines about its use. But I do feel

00:31:28: or what I've seen and I'm personally really excited about is how some newsrooms are trying to use AI

00:31:35: to personalize news, but not in the way that social media did in terms of like social bubbles and

00:31:43: the echo chambers and being only exposed to, you know, the opinions you want to hear, but more into

00:31:50: like, okay, there is a story and giving, you know, extracting, I want to look into something positive

00:31:57: in that story. And AI assistance chatbots are able to pick that up for you. Or, you know, if you are

00:32:05: more interested in listening to the news, you have really good voice assistance now, basically doing

00:32:13: your own personalize podcast. And I think maybe that's really something how we make the news more

00:32:20: accessible and more diverse with the use of technology, but definitely a lot to explore

00:32:27: there. And there is really, really nice inside report about it from the Reuters Institute that's been

00:32:33: published recently.

00:32:34: Okay, we're going to put that in the show notes so people can check it out.

00:32:39: That would be great.

00:32:40: Katke, is there anything you also want to share with us besides AI? What are the next steps in your

00:32:48: team?

00:32:49: Sure. So we are, as I said, we are still testing a lot. And we, of course, the media for peace

00:32:56: fellowship is slowly coming to an end. And the while we are ready with our MVP, we also see that

00:33:05: there is a potential for further dissemination, collaboration, other contexts. So we are hoping

00:33:11: to test how, what if works with Ukrainian journalists maybe, or other people just interested in

00:33:19: the concept, because we just think that this conflict escalation and foresight is really an

00:33:27: interesting area to discover further within media. And yeah, we are here for them.

00:33:33: Okay, Radke, thanks for your time in sharing what's going on with us.

00:33:38: Thank you, Sabrina.

00:33:39: Ihr habt's gehört. Wenn mehr zu "What if" dem Format der Media for Peace Fellows erfahren

00:33:48: möchte, ihr bleibt einfach bei diesem Podcast hängen. Jetzt den Folgebutton klicken und immer

00:33:53: erfahren, was bei den Fellows los ist und mehr zu deeskalierendem Journalismus mitnehmen.

00:33:59: Das war die Folge Media for Peace zum Thema KI im Peace Oriented Journalism.

00:34:04: Beim nächsten Mal geht es um Empathie in den Medien.

00:34:08: Mein Name ist Sabrina Harper und wir hören uns dann bald wieder.

00:34:13: Media for Peace, der Podcast für friedensorientierten Journalismus. Eine Produktion des Media Lab Bayern.

00:34:21: Media for Peace ist eine Kooperation mit dem DTECHBW, Zentrum für Digitalisierungs- und

00:34:28: Technologieforschung der Bundeswehr und der Universität der Bundeswehr München.

00:34:32: [Musik]

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.