Dossier Digitale Desinformation

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 2

Einleitung

Im Vorfeld von Wahlen stellt sich zunehmend die Frage, welchen Einfluss haben Bots und andere Formen automatisierter Kommunikation auf Meinungsbildung und Wahlentscheidung? Wer kontrolliert den Diskurs in den sozialen Medien? Spielt sich die Diskussion überhaupt noch dort ab? Nutzerinnen und Nutzer wandern zunehmend zu anderen Angeboten ab, in denen gar nicht mehr öffentlich kommuniziert wird. Führt die Verlagerung der Kommunikation in die geschlossene Kanäle der Messenger-Dienste zum Tod der digitalen politischen Öffentlichkeit? Mehr dazu im Dossier "Digitale Desinformation".

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 3

Inhaltsverzeichnis

1. Desinformation und Bundestagswahl 2021 5

1.1 Bundestagswahl und digitale Desinformation IV 6

1.2 Bundestagswahl und digitale Desinformation III 8

1.3 Bundestagswahl und digitale Desinformation II 11

1.4 Das Narrativ vom Wahlbetrug 14

1.5 Hybride Bedrohung als internationale Herausforderung 17

1.6 Selbstverpflichtungen für einen fairen digitalen Wahlkampf 20

1.7 Transparenz als Mittel gegen die digitale Verbreitung von Desinformation 24

1.8 Bundestagswahl und digitale Desinformation I 28

2. Desinformation - Der globale Blick 31

2.1 Podcast: Netz aus Lügen – Der Hack (1/7) 33

2.2 Impressum 48

3. Was ist Digitale Desinformation 49

3.1 Desinformation: Vom Kalten Krieg zum Informationszeitalter 50

3.2 Von der Aufmerksamkeits-Ökonomie zur desinformierten Gesellschaft? 54

3.3 Fake News als aktuelle Desinformation 58

3.4 Propaganda 4.0 von Europas Rechtspopulisten 62

4. Meinungsbildung- und Informationsvermittlung unter Bedingungen digitaler Desinformation 66

4.1 Microtargeting und Manipulation: Von Cambridge Analytica zur Europawahl 67

4.2 Von der Schwierigkeit, Fake News zu regulieren: Frankreichs Gesetzgebung gegen die 71 Verbreitung von Falschnachrichten im Wahlkampf

4.3 Bürger oder Bots? Automatisierte Kommunikation im Bundestagswahlkampf 2017 75

4.4 Die Medienlogik der Informationsintermediäre und ihre Bedeutung für Meinungsbildung 80

5. Digitale Desinformation und Soziale Medien 85

5.1 Warnen oder Löschen: Wie sollen Plattformen mit Falschmeldungen verfahren? 86

5.2 Über die "Messengerisierung" der Politik 91

5.3 Neue Herausforderung "Dark Social"? 94

5.4 Social Bots: Zwischen Phänomen und Phantom 98

5.5 Relevanz und Regulierung von Social Bots 102

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 4

6. Wie umgehen mit Digitaler Desinformation? 106

6.1 Lügen im Netz: Sich davor schützen und andere aufklären 107

6.2 Kritische Medienkompetenz als Säule demokratischer Resilienz in Zeiten von "Fake News" 111 und Online-Desinformation

6.3 Strategien der Europäischen Union gegen Desinformation 115

6.4 Katz-und-Maus-Spiel mit Desinformation: Die Möglichkeiten und Grenzen von Faktenchecks 120

6.5 Wahlmanipulation: Diese Schutzmaßnahmen treffen Internetkonzerne 124

7. Presseschau zur Europawahl 2019: Digitale Desinformation und Fake News 128

7.1 Presseschau vom 30.5. 131

7.2 Presseschau vom 29.5. 134

7.3 Presseschau vom 28.5. 137

7.4 Presseschau vom 27.5. 140

7.5 Presseschau vom 24.5. 143

7.6 Presseschau vom 23.5. 149

7.7 Presseschau vom 22.5. 152

7.8 Presseschau vom 21.5. 155

7.9 Presseschau vom 20.5. 159

7.10 Presseschau vom 17.5. 162

7.11 Presseschau vom 16.5. 165

7.12 Presseschau vom 15.5. 168

7.13 Presseschau vom 14.5. 171

7.14 Presseschau vom 13.5. 174

7.15 Presseschau vom 10.5. 177

7.16 Presseschau vom 9.5. 180

7.17 Presseschau vom 8.5. 183

7.18 Presseschau vom 7.5. 186

7.19 Presseschau vom 6.5. 189

7.20 Presseschau vom 3.5. 192

8. Redaktion 195

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 5

Desinformation und Bundestagswahl 2021

3.9.2021

Mit welchen Desinformationskampagnen ist vor der Bundestagswahl 2021 zu rechnen? Was sind typische Narrative und Fake News? Welche Rollen spielen Medien, soziale Netzwerke und Messenger- Dienste? Wer klärt auf und begegnet den Falschinformationen rund um die Wahl? Mehr dazu im Schwerpunkt Desinformation und Bundestagswahl 2021.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 6

Bundestagswahl und digitale Desinformation IV

Von Erik Meyer 23.9.2021 ist Politikwissenschaftler und arbeitet als freier Journalist und Dozent zur Digitalisierung in Politik, Pop und Erinnerungskultur. Er ist Autor von „Zwischen Partizipation und Plattformisierung: Politische Kommunikation in der digitalen Gesellschaft“ (2019)

Ein wöchentlicher Rückblick auf Berichte zum Thema und Inhalte sowie Formate auf Social- Media-Plattformen und in Messenger-Diensten. Was gibt es dazu für Faktenchecks und Einschätzungen aus Wissenschaft und Zivilgesellschaft?

Facebook löscht Beiträge der "Querdenken-Bewegung" (© picture-alliance, empics) Die aktuelle Verlautbarung von Facebook zur Entfernung neuer Arten von bedrohlichen Netzwerken (https://about.fb.com/de/news/2021/09/entfernung-neuer-arten-von-bedrohlichen-netzwerken/) steht zwar nur indirekt mit der Bundestagswahl in Verbindung, ist im Kontext der Diskussion um digitale Desinformation aber bemerkenswert. Bisher stand beim Kampf gegen eine illegitime Einflussnahme auf die Meinungsbildung häufig "koordiniertes nicht-authentisches Verhalten" im Fokus, also die Irreführung durch bei Bedarf massenhaft automatisiert agierender Fake Accounts. Nun geht Facebook auch gegen authentische Konten von Nutzerinnen und Nutzern vor, wenn diese eine "koordinierte Schädigung der Gesellschaft" verursachen können. Der Präzedenzfall betrifft die "Querdenken- Bewegung", die sich im Zuge des Protests gegen die Pandemie-Politik in Deutschland formiert hat: "Wir haben ein Netzwerk von Facebook- und Instagram-Konten, -Seiten und -Gruppen entfernt, deren Mitglieder*innen in koordinierter Weise wiederholt gegen unsere Gemeinschaftsstandards verstoßen haben. Hierzu zählen die Veröffentlichung von gesundheitsbezogenen Falschinformationen, Hassrede und Anstiftung zur Gewalt. Die Inhalte bergen in der vorliegenden Form das Potenzial, in reale Gewalt

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 7 umzuschlagen und auch in anderer Form gesellschaftlichen Schaden anzurichten."

Plattform-Politik

Facebook hatte bereits bei der US-Präsidentschaftswahl von seinem digitalen Hausrecht Gebrauch gemacht, um der aus irreführenden Beiträgen resultierenden Gewalt angemessen zu begegnen. In diesem Kontext gilt die "Deplattformisierung", also der dauerhafte Ausschluss von der Plattform, als Ultima Ratio. Bevor Plattformen zu derartigen Maßnahmen greifen, werden jedoch zuerst andere Verfahren der Moderation angewendet, wie die Reduzierung der Reichweite von einzelnen Postings, deren Entfernung oder Kennzeichnung mit Warnhinweisen und die unmittelbare Ansprache und Aufforderung entsprechendes Verhalten zu unterlassen. Erst wenn diese Maßnahmen scheitern, greifen Plattformen zu temporären Sperrungen oder Demonetarisierung, also dem Ausschluss aus den Werbeprogrammen.

Die Löschung von knapp 150 Facebook-Konten und Gruppen, die der Querdenken-Bewegung zugeordnet werden, wird allerdings kontrovers diskutiert. Lisa Hegemann kommentiert bei Zeit Online (https://www.zeit.de/digital/internet/2021-09/querdenker-facebook-gruppen-sperrung-soziale-medien- kritik) : "Auch wenn man Facebooks Reaktion als verspätet abtun kann: Der Gedanke dahinter ist durchaus der richtige. Denn indem das soziale Netzwerk die Reichweite zerstörerischer Stimmen eingrenzt, sie teils ganz von der Plattform verbannt, verhindert es die weitere Verbreitung von Falschinformationen, Verschwörungstheorien und Hetze. Dass Facebook aber im Alleingang entscheidet, welche Beiträge solche Maßnahmen treffen, wann und wie die aussehen, das ist der falsche Weg." Noch entschiedener lehnt Markus Reuter bei Netzpolitik.org (https://netzpolitik.org/2021/ deplatforming-von-querdenken-massenloeschungen-sind-kein-grund-zum-jubeln/) das "Deplatforming von Querdenken" durch Facebook ab: "Es hat nichts mit Demokratie und Rechtsstaatlichkeit zu tun, wenn ein marktdominantes Unternehmen nach seinen Regeln irgendwelchen gesellschaftlichen Gruppen einseitig die Öffentlichkeit entzieht. Hier fehlt die Transparenz. (...) Jetzt probiert das Unternehmen aus, wie so eine Massenlöschung ankommt – und suggeriert gleichzeitig vor der Bundestagswahl, es würde irgendwie verantwortungsvoll handeln."

Monitoring sozial-medialer Mechanismen

Facebook kommt mit seinem verschärften Vorgehen auch einer Forderung diverser zivilgesellschaftlicher Initiativen nach. Die Nichtregierungsorganisation "Democracy Reporting International" (DRI), die den Wahlkampf in den sozialen Medien in Kooperation mit dem Tagesspiegel mittels eines Dashboard zur Bundestagswahl 2021 (https://interaktiv.tagesspiegel.de/lab/social- media-dashboard-bundestagswahl-2021/) beobachtet, hatte unter anderem das koordinierte Teilen etwa von aggressiven Videos durch organisierte Verbreitungsnetzwerke problematisiert, ohne dass diese Vorgehensweise auf Anhieb als inauthentisch charakterisiert werden kann.

Neues Angebot der bpb

Im neuen Podcast der bpb "Netz aus Lügen - Die globale Macht von Desinformation" wird das Phänomen Desinformation in sieben Episoden besprochen. Dabei soll mit einem Blick über den Tellerrand das Themenfeld der Falsch- und Desinformation weltweit betrachtet werden. Die Reise führt dabei von Europa über Asien bis nach Nordamerika und es zeigt sich, dass trotz unterschiedlicher lokaler Kontexte viele Gemeinsamkeiten existieren. Im Podcast werden so strukturelle und gesamtgesellschaftliche Herausforderungen deutlich, die das Thema Desinformation gegenwärtig so bedeutsam machen.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 8

Bundestagswahl und digitale Desinformation III

Von Erik Meyer 17.9.2021 ist Politikwissenschaftler und arbeitet als freier Journalist und Dozent zur Digitalisierung in Politik, Pop und Erinnerungskultur. Er ist Autor von „Zwischen Partizipation und Plattformisierung: Politische Kommunikation in der digitalen Gesellschaft“ (2019)

Ein wöchentlicher Rückblick auf Berichte zum Thema und Inhalte sowie Formate auf Social- Media-Plattformen und in Messenger-Diensten. Was gibt es dazu für Faktenchecks und Einschätzungen aus Wissenschaft und Zivilgesellschaft?

In der Umsetzung der Maßnahmen gegen Desinformationen gibt es bei den Plattformen noch große Defizite. (© picture-alliance, Markus Mainka | Markus Mainka) Ein bislang wenig untersuchtes Format digitaler Desinformation beschreibt das gemeinnützige "Center für Monitoring, Analyse und Strategie" (CeMAS) unter dem Titel "Stimmungsmache über virale Sprachnachrichten (https://cemas.io/btw21/sprachnachrichten/)". Grundlage der Analyse ist das Monitoring von deutschsprachigen Gruppen und Kanälen beim Messenger-Dienst Telegram, die einem verschwörungsideologisch orientierten Milieu zugeordnet werden. Nicht zuletzt im Zuge des Protests gegen die Pandemie-Politik hat sich hier eine emotionalisierte Gegenöffentlichkeit etabliert: "Innerhalb des CeMAS-Datensatzes (...) finden sich aktuell 67.554 Sprachnachrichten in Telegram Kanälen und 317.974 in Gruppen (ohne Weiterleitungen). Zur Vorstellung der Größenordnung: Wenn man alle diese Sprachnachrichten am Stück anhören würde, bräuchte man insgesamt 490 Tage dafür. (...) Zur Bundestagswahl 2021 meldet sich aktuell vermehrt der Kanal Diplomateninterviews in bis zu 10- minütigen Sprachnachrichten an seine annähernd 30.000 Abonnent:innen. In einer mittlerweile über 50.000-mal betrachteten Nachricht vom 5. März 2021 bezeichnet ein aufgebrachter Sprecher die Bundestagswahl als 'gefaked' und fordert dazu auf, Beweise für einen angeblichen Wahlbetrug durch

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 9 vermeintlich falsches versenden von Wahlzetteln zu sammeln."

Leere Versprechungen?

Auch bei TikTok, dem populären Portal für Kurzvideos, finden irreführende Inhalte Verbreitung. Dies rekonstruieren Recherchen des Bayerischen Rundfunks und des ARD-Magazins Kontraste (https:// www.tagesschau.de/investigativ/kontraste/tik-tok-115.html) am Beispiel des “Wahlabend”-Meme. In den betreffenden Clips werden zum Sound des Rap-Songs "Gangsta‘s Paradise" falsche Behauptungen darüber aufgestellt, was nach einem fiktiven Wahlsieg der Grünen alles verboten werden würde. Laut TikTok würde bei relevanten Videos im Zusammenhang mit der Bundestagswahl ein Link zu einem Wahl-Informationsangebot der Plattform (https://www.tiktok.com/web-inapp/ bundestagswahl2021) eingeblendet. „Von den mehr als 40 vorliegenden ‘Wahlabend’-Videos ist allerdings nur ein Drittel entsprechend gekennzeichnet.” Dieses Defizit und andere Vorwürfe werden auch in einem Report (https://foundation.mozilla.org/de/campaigns/tiktok-german-election-2021/) ausgeführt, der von der Non-Profit-Organisation “Mozilla Foundation” veröffentlicht wurde. Darin heißt es unter anderem: “Wir haben mehrere TikTok-Konten mit relevanten Zugriffszahlen entdeckt, die sich als offizielle Institutionen des politischen Betriebs ausgeben. Die gefälschten Nutzerkonten zeigen, dass die Plattform die eigenen Community-Richtlinien wenige Wochen vor der Wahl nicht umsetzt.” Schließlich widmet sich der Podcast Noise (https://noise-podcast.podigee.io/4-meme-factory) ebenfalls TikTok. Im Gegensatz zu einem Messenger-Dienst wie Telegram ist hier weniger das Abonnieren relevant als die algorithmische Empfehlung von Angeboten, die sich an der Nutzungshistorie orientieren. Das Fazit der Episode: “es sind genau jene Mechanismen, die die Plattform so erfolgreich und vor allem bei jungen Nutzer:innen so beliebt machen, die sie auch zum möglichen Einfallstor für Desinformation zur Bundestagswahl werden lassen.”

Plattform-Politik

Einigen Wirbel verursachte in den USA das Wall Street Journal mit einer Serie von investigativen Reportagen, die auf internen Dokumenten von Facebook beruhen. Dabei wird in verschiedenen Fällen gezeigt, dass dem Unternehmen problematische Aspekte häufig bekannt sind. Doch eine Problemlösung findet dann bestenfalls bedingt statt, um das aufmerksamkeitsökonomische Geschäftsmodell nicht zu gefährden. Zu dieser Berichterstattung gibt es einen Podcast, und in der ersten Folge (https://www.wsj.com/podcasts/the-journal/the-facebook-files-part-1-the-whitelist/ aa216713-15af-474e-9fd4-5070ccaa774c) geht es um "The Whitelist". Gemeint ist damit eine Vorkehrung, die mehreren Millionen von prominenten und reichweitenstarken Nutzerinnen und Nutzern eine Art "Immunität" gewährt. So sollen diese VIPs nicht verärgert werden, wenn sie gegen die Gemeinschaftsstandards verstoßen, und es wurden etwa Inhabende von politischen Ämtern von der Durchsetzung restriktiver Maßnahmen ausgenommen. Wer sich an die Regeln halten muss, ist also eine Frage des Erfolgs, eine gesetzliche Reglung und unabhängige Instanz, die Standards für alle brächte, scheint also mehr als notwendig.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 10 Faktencheck der Woche

Zum zweiten Mal fand inzwischen der mediale Dreikampf um das Kanzleramt statt, in dem sich (Bündnis 90/Die Grünen), Armin Laschet (CDU) und Olaf Scholz (SPD) teils hitzige Wortgefechte lieferten. Doch welche der Behauptungen, die besonders umstritten sind, treffen auch zu? Dieser Frage widmet sich der #Faktenfuchs des Bayerischen Rundfunks (BR) mit einem Faktencheck zum Triell bei ARD und ZDF (https://www.br.de/nachrichten/deutschland-welt/ faktenfuchs-der-faktencheck-zum-triell-bei-ard-und-zdf,Siq1AHn). In vielen Fällen ist das Ergebnis dabei schwierig zu ermitteln, weil es den Aussagen für eine definitive Beurteilung häufig an Exaktheit mangelt. Auch für den in der ARD gesendeten Vierkampf mit Spitzenkandidierenden der anderen im vertretenen Parteien hat der BR einen Faktencheck (https://www.google.com/url?q=https:// www.br.de/nachrichten/deutschland-welt/der-faktencheck-zum-vierkampf-im-ersten-faktenfuchs,SiwNisa&sa= D&source=editors&ust=1631876887368000&usg=AOvVaw3p7NI3yponM9_-vq3aG3Nr) vorgelegt.

Weitere Ausgaben:

• Bundestagswahl und digitale Desinformation I (1.9.2021)

• Bundestagswahl und digitale Desinformation II (10.9.2021)

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 11

Bundestagswahl und digitale Desinformation II

Von Erik Meyer 9.9.2021 ist Politikwissenschaftler und arbeitet als freier Journalist und Dozent zur Digitalisierung in Politik, Pop und Erinnerungskultur. Er ist Autor von „Zwischen Partizipation und Plattformisierung: Politische Kommunikation in der digitalen Gesellschaft“ (2019)

Ein wöchentlicher Rückblick auf Berichte zum Thema und Inhalte sowie Formate auf Social- Media-Plattformen und in Messenger-Diensten. Was gibt es dazu für Faktenchecks und Einschätzungen aus Wissenschaft und Zivilgesellschaft?

Beliebtes Ziel für Desinformationen: die Plattform Facebook (© picture-alliance, Geisler-Fotopress | Christoph Hardt/ Geisler-Fotopres) Die Diskussion um digitale Desinformation erlangte zunächst nach der Wahl von Donald Trump zum US-Präsidenten 2016 größere Aufmerksamkeit. Dort konnte neben einem auf Clicks und Profit ausgerichteten Netz aus gefälschten Nachrichtenseiten, dass aus Mazedonien operierte, unter anderem eine Kampagne russischen Ursprungs rekonstruiert werden, die vor allem mit nicht- authentischen Profilen von Nutzerinnen und Nutzern bei Facebook agierte. Die Plattform bekämpft seitdem solche koordinierten Desinformationskampagnen nach eigenen Berichten (https://about.fb. com/news/tag/coordinated-inauthentic-behavior/) einigermaßen erfolgreich. Demgegenüber diskutiert eine TV-Dokumentation unter dem Titel Die geheimen Meinungsmacher (https://www.ardmediathek. de/video/reportage-und-dokumentation/die-geheimen-meinungsmacher-wie-wir-im-wahlkampf-manipuliert- werden/das-erste/Y3JpZDovL2Rhc2Vyc3RlLmRlL3JlcG9ydGFnZSBfIGRva3VtZW50YXRpb24gaW0­ gZXJzdGVuLzlkYjg1M2RhLTgwMWUtNGRjNS05NzE3LTM2MGM3ODMxYWY2YQ/) neben vielen anderen Aspekten einer toxisch polarisierten Netzöffentlichkeit im Vorfeld der Bundestagswahl auch die Inanspruchnahme von Desinformation als Dienstleistung durch chinesische Sicherheitsbehörden:

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 12

In einer diesbezüglichen Leistungsbeschreibung (https://www.tagesschau.de/investigativ/swr/china- soziale-medien-101.html) werde die Verfügung über tausende Twitter-, Facebook und YouTube- Konten für "ultraschnelle Postings gefordert - mit [einer] individuellen Posting-Frequenz von bis zu 1000 Posts und mehr pro Sekunde." Da nicht-chinesische Social-Media-Plattformen in China gesperrt sind, wird dies als Beleg für die Vorbereitung einer Einflussnahme im Ausland gewertet.

Plattform-Politik

Ein Thema, das netzpolitische Akteure in den letzten Wochen besonders beschäftigt hat, war die (In-) Transparenz algorithmischer Öffentlichkeiten. Im Fokus stand dabei Facebook, das eine Forschungsinitiative zum externen Monitoring von politischer Werbung (https://about.fb.com/ news/2021/08/research-cannot-be-the-justification-for-compromising-peoples-privacy/) und ein Projekt zur Priorisierung von Bildern und Videos bei Instagram (https://algorithmwatch.org/de/instagram- forschung-von-facebook-gestoppt/) unter Verweis auf seine Nutzungsbedingungen, die die automatisierte Erfassung von Daten verbiete, unterbunden hat. Diese Problematik steht auch auf der Agenda einer europäischen Regelung durch ein Gesetz über digitale Dienste (https://ec.europa.eu/ info/strategy/priorities-2019-2024/europe-fit-digital-age/digital-services-act-ensuring-safe-and-accountable- online-environment_de). In diesem Kontext drängen zahlreiche zivilgesellschaftliche Organisationen (https://www.disinfo.eu/advocacy/open-letter-to-eu-policy-makers-how-the-digital-services-act-dsa-can- tackle-disinformation/) auf einen gesicherten Zugang zu relevanten Daten. Aktiv ist weiterhin das Datenspende-Projekt der Initiative Who Targets Me (https://whotargets.me/de), das sich mit Wahlwerbung bei Facebook und Instagram befasst und dabei vor allem die zielgruppenspezifische Adressierung von Anzeigen untersucht. Die sogenannte Werbebibliothek von Facebook (https://www. facebook.com/ads/library) archiviert zwar ausgespielte Anzeigen inklusive diverser Angaben, für eine aussagekräftige Analyse, welche Intentionen damit verfolgt werden könnten, bedarf es aber weitergehender Auswertungen wie sie "Who Targets Me" auch für die Bundestagswahl (https:// whotargets.me/de/ad-targeting-in-the-german-election-de/) vorlegt . Darüber hinaus wurde nun ein neues Instrument für die Nutzerinnen und Nutzer der betreffenden Browser-Erweiterung vorgestellt: Sie können sich – sofern verfügbar – Faktenchecks zu den Inhalten der Polit-Werbung (https:// whotargets.me/en/fact-checking-comes-to-who-targets-me/) anzeigen lassen , mit der sie konfrontiert werden.

Faktencheck der Woche

Eine gängige Form der Falschinformation im Wahlkampf betrifft Aussagen von Kandidierenden. Die Nachrichtenagentur AFP hat folgenden Fall recherchiert und unter Verweis auf die Originalquelle richtiggestellt (https://faktencheck.afp.com/http%253A%252F%252Fdoc.afp.com%252F9MB7P4-1): "Tausende User auf Facebook haben ein angebliches Zitat der Grünen-Spitzenkandidatin zur Bundestagswahl, Annalena Baerbock, geteilt. Baerbock habe in einem Interview mit dem Radiosender WDR-1Live gefordert, den Ausbau von Glasfaser voranzutreiben, um E-Autos auf dem Land besser laden zu können. Ein solches Zitat ist im Interview aber nicht gefallen. Baerbock sprach lediglich die Themenkomplexe Glasfaserausbau und E-Mobilität hintereinander an. In Verbindung gebracht hat sie diese nicht." Das Kampagnen-Netzwerk “Avaaz” hat mehr als 800 deutsche Faktenchecks analysiert (https://secure.avaaz.org/campaign/de/bundestagswahl_2021/?slideshow), die vom 1. Januar bis 31. August 2021 durchgeführt wurden. Im Blick auf Politikerinnen und Politiker betrafen die vergleichsweise meisten Fälle die grüne Spitzenkandidatin Annalena Baerbock. Darüber hinaus wird problematisiert, dass selbst die von Fact-Checking-Kooperationspartnern der Plattform identifizierten Falschnachrichten von Facebook nicht automatisch alle mit entsprechenden Warnhinweisen gekennzeichnet wurden.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 13 Forschungsfragen

Welche Rolle spielt Künstliche Intelligenz (KI) im vorliegenden Kontext? Diese Frage diskutiert ein Papier von Expertinnen und Experten für die “Plattform Lernende Systeme” (https://www.plattform- lernende-systeme.de/aktuelles-newsreader/mehr-chancen-als-bedrohungen-kuenstliche-intelligenz-bei- wahlen.html) nun im Spannungsfeld von Versuchen der Einwirkung auf die Wahlentscheidung mithilfe von KI-Systemen (beispielsweise durch die Erstellung von Persönlichkeitsprofilen fu r personalisierte Werbung oder von gefälschtem Bild-, Audio- oder Videomaterial) und dem Risikomanagement wie bei der automatisierten Erkennung von Desinformation. Hier wird etwa im Hinblick auf die Möglichkeiten zur Auswertung von Informationen für individuelle Wahlempfehlungen ein erstaunlich positives Fazit gezogen: "Eine Bedrohung für Wahlen geht von KI-Systemen kaum aus. Vielmehr überwiegen die Chancen, mit KI eine offene Meinungsbildung im Vorfeld von Wahlen zu stärken."

Was tun?

Mit der App Face the Facts (https://facethefacts.app/) lassen sich Wahlplakate mit dem Smartphone fotografieren, um so direkt Informationen über die Kandidierenden zu erhalten. Die Daten sind auch über eine Suchfunktion verfügbar und stammen aus Quellen wie Abgeordnetenwatch.de (https://www. abgeordnetenwatch.de), den Webseiten der Parlamente oder Wikipedia. Insofern sind nicht für alle Kandidierenden weitergehende Angaben vorhanden. Die Initiative von Studierenden einer privaten Fachhochschule für digitale Produktentwicklung wird von diversen Institutionen gefördert – unter anderem von Wikimedia und dem Prototype Fund des Bundesministeriums für Bildung und Forschung (BMBF).

Weitere Ausgaben:

• Bundestagswahl und digitale Desinformation I (1.9.2021)

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 14

Das Narrativ vom Wahlbetrug

Von Karolin Schwarz 27.8.2021 ist freie Journalistin, Faktencheckerin und Trainerin. Sie arbeitet für Print- und Onlinemedien und für das Fernsehen. Im Februar 2016 gründete sie das Projekt Hoaxmap.org, über das Falschmeldungen über Geflüchtete und nicht-weiße Personen zusammen getragen werden.

Auch in Deutschland wird versucht, die Ergebnisse demokratischer Wahlen durch Fälschungsvorwürfe in Zweifel zu ziehen. Doch in den allermeisten Fällen handelt es sich um substanzlose Verdächtigungen, die zum Teil mit Fälschungen belegt werden sollen.

Im sogenannten Superwahljahr 2021 finden neben der Bundestagswahl auch mehrere Landtagswahlen und Kommunalwahlen statt. Bereits im Jahr 2016, nach der Wahl Donald Trumps zum US-Präsidenten und der Abstimmung über den Brexit im Vereinigten Königreich, wurde vor dem Einfluss von Desinformation auf Wahlkampf und Wahlergebnis gewarnt. Schließlich wurden im Vorfeld beider Abstimmungen ungezählte Fakes und verzerrte Fakten verbreitet. Auch vor der Bundestagswahl 2021 wurde in den USA eine Präsidentschaftswahl abgehalten. Erneut wurden Falschmeldungen und Verschwörungserzählungen gestreut. Donald Trump und sein politisches Umfeld verbreiteten das Narrativ von der "gestohlenen Wahl" sowie irreführende Meldungen über die Sicherheit der Briefwahl, die er eigentlich gewonnen habe. All dies erreichte den Höhepunkt im Januar 2021, als Anhänger Trumps gewaltsam das US-Kapitol stürmten, mit dem Ziel, ihrem "rechtmäßigen" Präsidenten zurück ins Amt zu verhelfen. Erneut prägen diese Vorgänge die Debatten um die Bundestagswahl in Deutschland. Ebenso wie die Gefahr der Einmischung staatlicher wie nichtstaatlicher Akteure aus dem Ausland und Aktivisten in Deutschland.

Die Sorgen vor Falschmeldungen im Vorfeld der Bundestagswahlen sind nicht unberechtigt. Schon Ende 2020 schürten (https://www.kinzen.com/blog/falschbehauptungen-uber-wahlen-trumps-letzter- schachzug-als-inspiration-fur-rechte-in-deutschland) der rechtsextreme Verein "Ein Prozent" ebenso wie mehrere Politiker der AfD Angst vor Wahlbetrug in Deutschland. So schrieb der Bundestagsabgeordneter auf Facebook: "2021 kann auch unsere Wahl gestohlen werden!" Und die AfD-Landtagsfraktion in Mecklenburg-Vorpommern bewarb einen Beitrag mit der Behauptung, Werbung für mehr Briefwahl während der Pandemie bedeute, "Unter dem Deckmantel des Infektionsschutzes wird das Risiko von Wahlunregelmäßigkeiten offenbar bewusst erhöht."

Dass Rechtsextreme behaupten, dass Wahlen in Deutschland im großen Stil manipuliert würden, ist allerdings keine Neuerung nach den US-Wahlen 2020. Bereits seit mindestens 2016 ruft "Ein Prozent" zusammen mit anderen Organisationen sowie Teilen der AfD zur "Wahlbeobachtung" bei der Auszählung der Ergebnisse vor Ort auf. Neben der allgemeinen Warnung vor Manipulation wird auch immer wieder angedeutet, dass die Stimmzettel von Wählern der AfD besonders von Betrugsversuchen betroffen seien. Richtig ist, dass in den vergangenen Jahren Einzelfälle von versuchtem oder tatsächlichen Wahlbetrug öffentlich wurden. Zur Wahrheit gehört aber auch, dass die Hinterleute dieser Vorgänge verurteilt (https://www.mdr.de/nachrichten/sachsen-anhalt/stendal/briefwahlaffaere-landgericht- verurteilt-ex-cdu-chef-kuehnel-zu-schadensersatz100.html), und die Wahl nicht beeinträchtigt wurde. Ein erfolgreicher Wahlbetrug bedürfte praktisch unmögliche Anstrengungen, da zahlreiche Eingeweihte in vielen Wahllokalen nötig wären, um das Ergebnis einer Bundestagswahl signifikant zu ändern.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 15 Die Wahl in Sachsen-Anhalt als Testlauf für die Bundestagswahl

Im Juni 2021 gewann die CDU in Sachsen-Anhalt unter Anführung ihres Spitzenkandidaten, Ministerpräsident Reiner Haseloff, die Landtagswahl. Die CDU erzielte 37,1 Prozent der Stimmen, gefolgt von der AfD mit 20,8 Prozent. In den letzten Umfragen vor dem Urnengang zeichnete sich ein solch deutlicher Abstand allerdings nicht ab. So hatte beispielsweise eine Umfrage des Meinungsforschungsinstituts INSA lediglich einen hauchdünnen Unterschied zwischen CDU und AfD vorhergesagt. Das Ergebnis lässt sich zumindest teilweise damit erklären (https://www.zeit.de/politik/ deutschland/2021-06/wahlumfragen-sachsen-anhalt-landtagswahl-wahlverhalten-waehler), dass Wähler, die ihre Stimme eigentlich einer anderen Partei geben wollten, sich doch für die Wahl der CDU entschieden, um einen Wahlsieg der AfD zu verhindern. Die Diskrepanz zwischen den Umfragen und dem Ergebnis nahmen insbesondere aber Politiker der Partei "Die Basis", die aus dem Umfeld der "Querdenken"-Demonstrationen hervorgegangen ist, als Anlass, Behauptungen (https://correctiv.org/ faktencheck/2021/07/14/parteimitglieder-von-die-basis-spekulieren-ohne-belege-ueber-wahlbetrug-in- sachsen-anhalt/) über erfolgten Wahlbetrug aufzustellen.

Rainer Fuellmich, der als Spitzenkandidat dieser Partei in Sachsen-Anhalt angetreten war, verbreitete in einem Video außerdem die Behauptung, ein Anstieg der Wahlbeteiligung zwischen 16 und 18 Uhr von 40 auf 60 Prozent sei verdächtig. Auch Fuellmichs Parteikollege, der ehemalige SPD-Politiker Wolfgang Wodarg, spricht im Video davon, dass die Wahlen "gefälscht" worden seien. Tatsächlich war die Wahlbeteiligung um 18 Uhr um 20 Prozent höher angegeben als noch zwei Stunden zuvor. Und die Basis-Politiker schlussfolgern richtig, dass dahinter die Briefwahlstimmen steckten. Einen Anlass dafür, hieraus einen Beleg für einen Wahlbetrug abzuleiten, so wie dies Basis-Politiker oder der Verschwörungsideologe Oliver Janich kurz nach der Wahl taten, ist es allerdings nicht.

Eine weitere Falschmeldung (https://correctiv.org/faktencheck/2021/06/07/foto-ist-kein-beleg-fuer- angeblichen-wahlbetrug-in-sachsen-anhalt-es-zeigt-die-auszaehlung-bei-der-us-wahl-2020/) machte bereits am Tag des Urnengangs die Runde. Ein Twitter-Account hatte sich als der Partei der "Grünen" zugeneigter Wahlhelfer ausgegeben und schrieb: "Macht euch keine Sorge, unser ganzes Team ist darauf vorbereitet der #fckafd keine Chance zu lassen und gegebenenfalls die Stimmen zu entwerten". Bereits ein Blick auf das Twitter-Konto lässt die Schlussfolgerung zu, dass der Tweet eine sogenannte False-Flag-Aktion war, also ein Versuch, unter falscher Flagge Stimmung zu machen und Zweifel an der Legitimität der Wahlen zu schüren. Auch das angehängte Foto war ein Fake: Es zeigte die Stimmauszählung bei der US-Wahl im November 2020. Diese Art der Falschmeldung ist nicht neu. Auch wenige Tage vor der Bundestagswahl 2017 wurden ähnliche Tweets verbreitet (https://correctiv. org/faktencheck/2017/09/24/das-sind-die-fakes-am-wahltag/).

Bundestagswahlkampf 2021: Herausforderungen und Gegenmaßnahmen

Im Wahlkampf des Jahres 2021 werden viele Falschmeldungen verbreitet, die auch 2017 schon die Runde machten. Neben den bereits erwähnten Beispielen werden Wähler immer wieder aufgefordert, eigene Stifte zur Wahl mitzubringen, weil in den Wahlkabinen entweder nur Bleistifte oder andere radierbare Stifte ausgelegt würden, um bei der Auszählung Stimmzettel zu manipulieren. Dazu gesellen sich neue Narrative, die im Zusammenhang mit der Corona-Pandemie stehen. Insbesondere aus den Reihen der Corona-Leugner und -Verharmloser stammt die Behauptung, die Pandemie würde genutzt oder sei sogar erfunden worden, um die Bundestagswahl zu einer reinen Briefwahl zu machen oder kurz vor dem Wahltermin abzusagen. Impfgegner behaupten, dass Ungeimpfte vom Wahlgang an die Urne ausgeschlossen werden sollen, indem in Wahllokalen die 3G-Regel eingeführt werden soll, nach der nur Getestete, Geimpfte oder Genesene Zugang erhalten. Bis Ende August 2021 ist eine solche Regel (https://www.br.de/nachrichten/wissen/wird-ungeimpften-mit-3g-das-stimmrecht-entzogen,SgcHprJ) aber weder eingeführt worden, noch ist es wahrscheinlich, dass sie eingeführt wird.

Neben den Behauptungen über die Sicherheit der Wahlen sind Fakes und Lügen, die auf Politiker und Parteien abzielen eine weitere Kategorie der Falschmeldungen im Wahlkampf,. Die Firma Conservare Communications GmbH hat im August 2021 eine große Plakat- und Online-Kampagne gegen die

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 16

Grünen gestartet. Nach Recherchen von Correctiv (https://correctiv.org/aktuelles/parteispenden/2021/08/16/ anti-gruenen-kampagne-mindestens-eine-halbe-million-euro-aus-anonymen-quellen/) dürften allein die Plakate zwischen 550.000 und 750.000 Euro gekostet haben. Hinzu kommen mehr als 20 Werbeanzeigen auf Facebook und Instagram. Im Rahmen der Kampagne werden Falschmeldungen über die Grünen oder grüne Politik verbreitet. Etwa über die Zahl der Vögel, die durch Windräder (https://correctiv.org/faktencheck/2021/08/19/nein-eine-studie-zeigt-nicht-dass-zehntausende-voegel- durch-windraeder-sterben/) sterben oder eine angeblich nach chinesischem Vorbild geplante Ein-Kind- Politik (https://www.rnd.de/politik/afd-nahe-firma-startet-negativkampagne-gegen-die-gruenen-im- wahlkampf-2RNXQDIPIBAEZGWDDXMKOEB4KA.html). Die zur Kampagne gehörenden Videos wurden in den ersten Wochen nach ihrer Veröffentlichung durchschnittlich mehr als 10.000 mal angesehen, wie eine Untersuchung der European New School of Digital Studies zeigt. Hinter der Conservare Communications GmbH steckt David Bendels, der auch Chefredakteur des Deutschland Kuriers ist. Das medienaktivistische Projekt führt mehr als 30 AfD-Abgeordnete und -Mitglieder als Teil der Redaktion auf.

[An dieser Stelle befindet sich ein eingebettetes Objekt, das wir in der PDF-/EPUB-Version nicht ausspielen können. Das Objekt können Sie sich in der Online-Version des Beitrags anschauen: http:// www.bpb.de/gesellschaft/digitales/digitale-desinformation/339306/das-narrativ-vom-wahlbetrug]

Um die Bundestagswahl vor einer Einflussnahme durch Desinformation zu schützen, wurden im Vorfeld der Wahl verschiedene Maßnahmen ergriffen. Das Bundesamt für Sicherheit in der Informationstechnik hat einen Sicherheitsleitfaden (https://www.bsi.bund.de/DE/Themen/Verbraucherinnen-und-Verbraucher/ Informationen-und-Empfehlungen/Infos-fuer-Kandidierende/wahlen_node.html) für Kandidierende und Mandatstragende herausgegeben, um den Schutz vor Hackerangriffen zu erhöhen. Der Bundeswahlleiter und sein Team haben sich auf Falschmeldungen vorbereitet. Auf einer eigens eingerichteten Seite (https://www.bundeswahlleiter.de/bundestagswahlen/2021/fakten-fakenews. html) werden populäre Falschmeldungen und Irrtümer über die Wahl und ihren Ablauf widerlegt. Schon im Jahr 2017 reagierte das Büro des Bundeswahlleiters auf Falschmeldungen und nutzte soziale Medien, um sie zu widerlegen und sogar proaktiv (https://correctiv.org/faktencheck/artikel- faktencheck/2017/09/27/fakesuche-am-wahltag/) nach Lügen und irreführenden Behauptungen zu suchen. Selbst bei TikTok, einer besonders bei Jüngeren beliebten Social-Media-Plattform, können sich Interessierte mit eigens von der ARD produzierten kurzen Videoclips über die Wahl und ihren Ablauf informieren. Es mangelt also nicht an einem ausdifferenzierten Angebot um die eigene Widerstandsfähigkeit gegen Falschmeldungen zu stärken.

Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/4.0/ deed.de/ (http://creativecommons.org/licenses/by-nc-nd/4.0/deed.de/)

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 17

Hybride Bedrohung als internationale Herausforderung

Von Lutz Güllner 1.9.2021 leitet im Europäischen Auswärtigen Dienst die Abteilung strategische Kommunikation. Er gibt hier seine persönliche Einschätzung wieder.

Die Destabilisierung demokratischer Gesellschaften durch digitale Desinformation gehört zunehmend zum Repertoire ausländischer Einflussnahme. Wie ist diese Gefahr einzuschätzen und was wird in Europa dagegen getan?

Kurz nach Ausbruch der Corona-Krise hat die Weltgesundheitsorganisation den Begriff der "Infodemie" geprägt. Dieser beschreibt die Flut oft falscher oder ungenauer Informationen über das Coronavirus, die sich rasch über die sozialen Medien verbreiteten und in einer Mischung aus Irrtümern, Falschnachrichten, Verschwörungsnarrativen und gezielter Desinformation Verwirrung und Misstrauen hervorriefen. Diese Entwicklung mit direkten Konsequenzen für Leib und Leben demonstriert, dass der Umgang mit Desinformation gerade für demokratische Gesellschaften eine zentrale Herausforderung ist. Der Grat zwischen dem streng geschützten Gut der freien Meinungsäußerung und der für demokratische Staaten notwendigen Absicherung faktenorientierter Debatten ist hier schmal. Dies ist aber nicht nur ein gesellschaftspolitisches Problem, sondern auch eine wesentliche außen- und sicherheitspolitische Herausforderung.

Gerade in der Corona-Krise wurde deutlich, wie oft und massiv ausländische Akteure, insbesondere staatliche wie Russland und China, versuchen Einfluss auf den Informationsraum in Europa zu nehmen und dafür auch gezielt Desinformation einsetzen. Dies belegen Sonderberichte des Europäischen Auswärtigen Dienstes (EAD) (https://euvsdisinfo.eu/de/ead-sonderbericht-update-kurzbewertung- der-narrative-und-desinformation-zur-covid-19-pandemie-aktualisierung-dezember-2020-bis-april-2021/), einer Einrichtung der EU. Dabei geht es nicht um legitime Diplomatie, sondern um absichtliche, koordinierte und oft versteckte Aktivitäten, die mit klaren politischen Zielsetzungen verbunden sind. Diese wollen etwa das eigene Handeln überzogen positiv darstellen und das Handeln der anderen bewusst diskreditieren, um damit die Überlegenheit des eigenen Systems herauszustreichen.

Instrumente illegitimer Einflussnahme

Desinformationskampagnen zielen nicht mehr nur darauf ab, eigene positive Narrative besonders effizient zu verbreiten. Oftmals geht es vielmehr darum, den Informationsraum der Gegenseite so zu überfluten, dass Verwirrung entsteht und Vertrauen in jedwede Information untergraben wird. Gerade in Kombination mit anderen Instrumenten – etwa im Cyber-Bereich durch sogenannte "Hack-and- Leak"-Operationen, bei denen illegal erlangte Daten gezielt veröffentlicht werden – wird die Desinformation zur "digitalen Waffe": Das eigentliche Ziel ist dann die Manipulation des Informationsraums..

Manipuliert werden hierbei nicht nur die Inhalte, sondern auch die künstlich verstärkte Verbreitung (etwa durch automatisierte Abfrage) sowie die Identitäten der Akteure, also beispielsweise gefälschte Nutzerkonten. Am Ende geht es nicht mehr um "richtig oder falsch" oder um "meine oder deine Version", sondern um das Verbreiten von irreführenden und verzerrenden Suggestionen, die oft auf mittel- bis langfristige Ziele angelegt sind – im schlimmsten Fall auf die Unterminierung des politischen Systems. Daher ist diese Form der Desinformation auch nicht auf das Phänomen "Fake News" beschränkt,

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 18 sondern als umfassende Strategie der Beeinflussung und Destabilisierung eines anderen Staates zu verstehen. Dies ist eine handfeste hybride Bedrohung.

Das Oxford Internet Institute hat in einer im Januar 2021 erschienenen Studie (https://www.oii.ox.ac. uk/news/releases/social-media-manipulation-by-political-actors-now-an-industrial-scale-problem-prevalent- in-over-80-countries-annual-oxford-report/) von einem Problem "industriellen Ausmaßes" gesprochen und auf mehr als 80 Staaten verwiesen, die Informationsmanipulation in der einen oder anderen Form einsetzen. Besonders problematisch ist dabei, dass es immer schwerer wird, diese Aktivitäten aufzuspüren. Auch Facebook geht von einer Weiterentwicklung von Taktiken und Strategien der Informationsmanipulation auf Plattformen durch "Coordinated Inauthentic Behaviour" aus. So sei eine Verschiebung von groß angelegten Kampagnen auf "maßgeschneiderte" kleinere Operationen zu beobachten (https://about.fb.com/news/2021/05/influence-operations-threat-report/), die sich durch immer höhere Professionalität und Präzision auszeichneten. Diese Operationen bewegen sich häufig in der Grauzone zwischen authentischen gesellschaftlichen Debatten und künstlich erzeugten Stimmen. Sie werden eingesetzt, um bereits bestehende Stimmen zu verstärken, nicht nur an den radikalen Rändern der Gesellschaft. Damit können die Aktivitäten der Einflussnahme noch besser verschleiert werden, da es anscheinend um ein innenpolitisches Problem geht.

Dabei lässt sich aber auch eine wachsende "Kommerzialisierung" der Desinformation und Einflussnahme belegen, wie das Beispiel der israelischen Agentur "Archimedes Group" (https:// medium.com/dfrlab/inauthentic-israeli-facebook-assets-target-the-world-281ad7254264) zeigt. Das privatwirtschaftliche Unternehmen wird von staatlichen Stellen mit sogenannter "Black PR", also unethischer Öffentlichkeitsarbeit wie einer Rufmordkampagne, beauftragt. Dies macht es nahezu unmöglich, den eigentlichen Auftraggeber einer staatlichen Struktur zuzuordnen – es sei denn, man verschafft sich einen umfassenden Einblick in entsprechende Finanzflüsse.

Gegenmaßnahmen auf EU-Ebene

Was kann jenseits von Interventionen der Plattformen im Rahmen ihrer "Content Moderation" überhaupt getan werden? Seit 2015 beobachtet der EAD mit einer eigens geschaffenen Struktur die Desinformationsaktivitäten Russlands: Diese werden aufgespürt, dokumentiert und auf einer eigenen Website EUvsDisinfo.eu (https://euvsdisinfo.eu/de/) veröffentlicht. Die Arbeit des EAD wurde in den vergangenen Jahren deutlich ausgeweitet: Mit einem Team von Fachleuten geht der EAD das Problem der Desinformation insbesondere in der Nachbarschaft der EU an. Weitere Expertise wurde auch für andere Bedrohungen aufgebaut, etwa durch chinesische Akteure. Ein Frühwarnsystem, das die Experten der EU mit denen in den EU-Mitgliedstaaten verzahnt, wurde ins Leben gerufen. Und die Zusammenarbeit mit internationalen Partnern, etwa im Rahmen der G7 und mit der NATO, wurde deutlich intensiviert.

In den letzten Jahren wurde zudem ein politischer Rahmen entwickelt, der das Problem der Desinformation und der politischen Einflussnahme in den Fokus nimmt: der Europäische Aktionsplan für Demokratie (https://ec.europa.eu/info/strategy/priorities-2019-2024/new-push-european-democracy/ european-democracy-action-plan_de). Mit dem übergeordneten Ziel, demokratische Prozesse in Europa zu fördern und zu schützen, richtet sich der Plan auf drei Kernbereiche: Regeln für politische Parteien (etwa für politische Werbung), Förderung der Vielfalt und Qualität der Medienlandschaft sowie Maßnahmen, um die Ausbreitung von Desinformation einzudämmen. Mit dem "Code of Practice" nimmt die EU Plattformen und ihre Regulierung in den Blick. In dem Verhaltenskodex und Maßnahmenkatalog verpflichten sich die Plattformen, Desinformation effizient zu bekämpfen. Diese Maßnahmen sollen nun in einen Rechtsakt (Digital Services Act (https://ec.europa.eu/info/strategy/priorities-2019-2024/ europe-fit-digital-age/digital-services-act-ensuring-safe-and-accountable-online-environment_de)) überführt werden. Dafür wurde ein Ansatz entwickelt, der sich deutlich von anderen Gesetzgebungen, wie etwa dem deutschen Netzwerkdurchsetzungsgesetz, unterscheidet: Es geht hierbei nicht mehr so sehr um die Regulierung einzelner Inhalte, sondern um die möglichen "systemischen Risiken" für die

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 19

Gesellschaft oder Demokratie als Ganzes. Plattformen haben dabei die Verpflichtung, diese Risiken durch entsprechende Maßnahmen zu mindern. Zum Beispiel müsste Facebook erläutern, wie seine Algorithmen Inhalte anzeigen, und in der Folge Nutzenden Möglichkeiten bieten, dies selbst einzustellen. Im Gesetzgebungsprozess wird aktuell politisch kontrovers diskutiert, welche Aufsichtsbehörde(n) schließlich kontrollieren, ob die Vorgaben dann auch eingehalten werden.

Auch Deutschland will sich dieser Bedrohung noch stärker widmen, bekundet die Bundesregierung im Superwahljahr 2021 (https://www.bundesregierung.de/breg-de/themen/umgang-mit-desinformation/ cybersicherheit-desinformation-1872752). Zuletzt hat eine Untersuchung des EAD (https://euvsdisinfo. eu/villifying-germany-wooing-germany/) unterstrichen, wie sehr Deutschland Ziel der Aktivitäten russischer Akteure geworden ist. Externe Experten (https://democracy-reporting.org/de/ dri_publications/assessing-online-risks-to-germanys-elections/) und die Bundesregierung (https:// www.zeit.de/digital/2021-07/cybersicherheit-bundestagswahl-einflussnahme-wahlen-manipulation-hackerangriffe- desinformation-digitalisierung/komplettansicht) sowie betreffende Bundesbehörden (https://www.zeit. de/digital/2021-07/cybersicherheit-bundestagswahl-einflussnahme-wahlen-manipulation-hackerangriffe- desinformation-digitalisierung/komplettansicht) gehen davon aus, dass die Bundestagswahl ins Fadenkreuz geraten könnte – auch wenn die Gefahr einer unmittelbaren und massiven Verfälschung des Wahlergebnisses vom Bundeswahlleiter und dem Bundesamt für Sicherheit in der Informationstechnik als relativ gering eingeschätzt wird. Unabhängig von der Bundestagswahl bleibt jedoch das Grundproblem bestehen: Desinformationskampagnen greifen die Grundlagen gesellschaftlicher Debatten an und zersetzen die gemeinsame Wissensgrundlage einer Gesellschaft. Das Problem ist deshalb auch eher der mittel- bis langfristige Effekt dieser Kampagnen, wenn dabei das Vertrauen in die Integrität demokratischer Prozesse in Frage gestellt wird.

Bearbeitung des Originalbeitrags Im digitalen Fadenkreuz aus Internationale Politik 4 Juli/August 2021, S. 78-81. (https://internationalepolitik.de/de/im-digitalen-fadenkreuz)

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 20

Selbstverpflichtungen für einen fairen digitalen Wahlkampf

Von Julian Jaursch 23.8.2021 ist Projektleiter beim gemeinnützigen Think Tank Stiftung Neue Verantwortung (SNV) und befasst sich dort unter anderem mit den Themen Desinformation und Plattformregulierung aus deutscher, europäischer und transatlantischer Sicht. Zusammen mit mehr als 20 anderen Organisationen rief die SNV im Wahlkampf die Parteien zu einer Selbstverpflichtung für fairen digitalen Wahlkampf auf.

Politischer Onlinewerbung kommt eine steigende Bedeutung in politischen Kampagnen zu. Besondere gesetzliche Regeln dafür gibt es aber im Gegensatz zum Rundfunk in Deutschland nicht. Deshalb spielen nun Selbstverpflichtungen eine Rolle.

Der klassische Straßenwahlkampf zur Bundestagswahl 2021 mit Wahlplakaten und Flyern hatte in Deutschland noch gar nicht begonnen, da kursierten schon Hunderte von Werbeanzeigen von Kandidierenden im Netz. Zudem gab es bereits im Frühsommer Fälle von digitaler Desinformation: Beispielsweise verbreiteten sich online falsche beziehungsweise aus dem Kontext gerissene Zitate, die angeblich von Kandidierenden (https://correctiv.org/faktencheck/2021/04/22/hundeverbot- angebliches-zitat-von-annalena-baerbock-ist-ein-fake) für die Kanzlerschaft (https://www.br.de/ nachrichten/deutschland-welt/faktenfuchs-falsches-laschet-zitat-kursiert-auf-twitter,ScNP3En) stammten. Auch gefälschte Wahlkampfseiten (https://www.br.de/nachrichten/deutschland-welt/faktenfuchs-csu- endlich-dahoam-kampagne-ist-ein-fake,Sbin1se), die sich selbst als Satire bezeichneten, wurden teilweise als Desinformation eingestuft. Nicht zuletzt zeigten persönliche Berichte (https://www.faz. net/aktuell/politik/inland/frauen-in-der-politik-hass-auf-politikerinnen-17363480.html) und Fallstudien (https://www.reset.tech/resources/social-media-in-germany-effects-on-the-culture-of-debate-disinformation- and-hate/) immer wieder, welche hasserfüllten, teils strafbaren, Botschaften Politikerinnen und Politiker online erreichten.

Dass Wahlkämpfe hart geführt werden können, steht außer Frage, ebenso, dass der Wahlkampf im Netz viele positive Möglichkeiten zur Wähleransprache und politischem Austausch bietet. Doch der digitale Wahlkampf birgt besondere Gefahren. Desinformation und Hetze können sich schnell verbreiten, wie die Beispiele aus Deutschland, aber auch Fälle aus anderen Ländern wie den USA oder England gezeigt haben. Generell kann Nutzerinnen und Nutzern eine Unterscheidung und Einordnung von Inhalten, zum Beispiel ob es sich um Werbung, Information oder Falschnachrichten handelt, schwerfallen. Das belegte zuletzt eine repräsentative Untersuchung (https://www.stiftung-nv. de/de/publikation/quelle-internet-digitale-nachrichten-und-informationskompetenzen-der-deutschen) zu digitaler Nachrichten- und Informationskompetenz der deutschen Bevölkerung.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 21 Gesetzeslücken beim digitalen Wahlkampf

Zudem fehlen (https://www.bundestag.de/resource/blob/656496/14a2bd7edecf8611931fdd2a19bd9876/ WD-10-018-19-pdf-data.pdf) für den digitalen Wahlkampf klare gesetzliche Regeln, im Unterschied zur analogen Welt, wo es beispielsweise Transparenzregeln für politische Werbung im Fernsehen gibt. Für Rundfunk und Straßenplakate ist auch etwa gesetzlich festgelegt, wann und in welchem Umfang (https://rm.coe.int/iris-special-2017-1-medienberichterstattung-bei-wahlen-der-rechtliche-/16807834bf) solche politische Werbung erlaubt ist. Im Internet hingegen ist es meist privaten Unternehmen überlassen, die Rahmenbedingungen für den digitalen Wahlkampf festzulegen: Es sind die "Gemeinschaftsstandards" oder Geschäftsbedingungen von Tech-Konzernen wie Facebook/ Instagram, Twitter, TikTok, Google/YouTube und Snapchat, die bestimmen, ob und wie politische Onlinewerbung erlaubt ist (https://docs.google.com/document/d/1LQljwu4VfRNUuNPnxmypVxYaRWA6bzeB4m5j9At- Z24/edit) und auf welche Art und Weise Kandierende, Parteien und politische Gruppierungen ihre Kampagnen gestalten können. Konkrete Gesetze für den digitalen Wahlkampf sind in Deutschland kaum vorhanden (https://www.stiftung-nv.de/de/publikation/regeln-fuer-faire-digitale-wahlkaempfe). Zum Beispiel gibt es nur wenig detaillierte Berichtspflichten für Parteien und politische Werbetreibende hinsichtlich der Onlinewerbung und es mangelt (https://verfassungsblog.de/dritte-im-bunde-fuer-mehr- transparenz-in-der-partei-und-wahlkampffinanzierung/) an einer starken Wahlkampfaufsicht sowie an klaren gesetzlichen Verpflichtungen für Plattformen, etwa hinsichtlich Kennzeichnungspflichten für Werbung und den Umgang mit Desinformation. Auf große Plattformen könnten allerdings bald neue Transparenz- und Rechenschaftspflichten zukommen, da die Europäische Union an einem "Digitale- Dienste-Gesetz (https://netzpolitik.org/2020/eu-plattformgrundgesetz-digital-services-act/)" ("Digital Services Act", DSA) arbeitet. Die EU plant außerdem ein eigenes Regelwerk speziell für politische Onlinewerbung, wobei sie hier nur begrenzt handlungsfähig ist, da zum Beispiel Gesetze zu Parteien im Kompetenzbereich der Mitgliedstaaten liegen.

Selbstverpflichtungen als Alternative

Bis solche Gesetzesinitiativen umgesetzt werden, bestehen weiterhin Gesetzeslücken, weshalb verstärkt Selbstverpflichtungen für fairen digitalen Wahlkampf diskutiert werden. Parteien und teils auch Plattformen verpflichten sich dabei freiwillig auf Maßnahmen, um für Transparenz, Diskriminierungsfreiheit und Fairness im digitalen Wahlkampf zu sorgen. Solche Selbstverpflichtungen sind in Europa bisher auf unterschiedliche Weise entstanden: Sie stammten von Parteien selbst, wurden vom Parlament gefordert oder von Zivilgesellschaft und Wissenschaft entwickelt.

Als Beispiel für eine Selbstverpflichtung, die von Parteien selbst ausging, kann der Entwurf in Nordrhein- Westfalen von 2017 gelten. Dort versuchten die Parteien im Landtagswahlkampf eine gemeinsame Selbstverpflichtung zu etablieren, konnten sich aber nicht einigen (https://www.zeit.de/politik/ deutschland/2017-03/die-gruenen-nrw-wahlkampf-fairness/komplettansicht). Auch auf Bundesebene kam es in jenem Jahr nicht zu einer gemeinsamen Verpflichtung, lediglich Bündnis 90/Die Grünen hatte eine eigene Erklärung (https://cms.gruene.de/uploads/documents/20170213_Beschluss_Selb­ stverpflichtung_Fairer_Bundestagswahlkampf.pdf) abgegeben. In den Niederlanden forderte das Parlament die Regierung auf, eine Selbstverpflichtung auszuarbeiten. Zwar wurden auch dort Reformen des Parteienrechts diskutiert, doch für die Parlamentswahl im März 2021 wurde zunächst ein "Code of Conduct" entwickelt. Neben den Parteien unterzeichneten auch große Plattformen wie Facebook und Google diesen Verhaltenskodex. Den Kodex (https://www.idea.int/news-media/news/ first-national-code-conduct-online-political-advertising-european-union-signed-dutch) erarbeitete und verhandelte die Nichtregierungsorganisation International IDEA (International Institute for Democracy and Electoral Assistance) im Auftrag des niederländischen Innenministeriums. Eine Selbstverpflichtung (https://fairplaypledge.org/) für fairen digitalen Wahlkampf unterschrieben 2020 auch die größten irischen Parteien – auf Initiative zivilgesellschaftlicher und wissenschaftlicher Organisationen. Ähnliche Initiativen gab es in Österreich (https://www.netpeace.eu/fairness-und-transparenz-pakt/) 2017 und im Vereinigten Königreich (https://fairplaypledge.co.uk/) 2021.

Im Wahljahr 2021 werden in Deutschland Selbstverpflichtungen für Parteien stärker diskutiert als in

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 22

Wahlkämpfen zuvor, auch dank des Drucks aus Zivilgesellschaft und Wissenschaft. Der SPD-nahe digitalpolitische Verein D64 (Zentrum für Digitalen Fortschritt) entwickelte zum Beispiel einen Vorschlag (https://d-64.org/wp-content/uploads/2021/05/D64_Code_of_Conduct_final-1.pdf). Daneben rief ein größeres Bündnis aus mehr als 20 Organisationen (https://campaign-watch.de/) im Juni 2021 deutsche Parteien öffentlich dazu auf, einen gemeinsamen Verhaltenskodex zu entwickeln und zu unterzeichnen.[1] Die Initiative "Campaign Watch", die unter anderem Gewerkschaften, wissenschaftliche Einrichtungen sowie zivilgesellschaftliche Organisationen aus den Bereichen Meinungsfreiheit, Antidiskriminierung und Digitalpolitik umfasst, lieferte dazu konkrete Vorschläge, was ein solcher Verhaltenskodex umfassen könnte. Zum Zeitpunkt (https://www.rnd.de/politik/wahlkampf- im-netz-selbstverpflichtung-der-parteien-zu-fairness-gefordert-UTINBQEYOJB5RGLL3NJ7OBOZNY. html) des Aufrufs hatte Bündnis 90/Die Grünen (https://www.gruene.de/artikel/selbstverpflichtung-fuer- einen-fairen-bundestagswahlkampf) bereits eine eigene Selbstverpflichtung veröffentlicht, es folgten die SPD (https://www.spd.de/fileadmin/Dokumente/Beschluesse/Parteispitze/PV_2021/SPD-PV- Kodex-Fairness.pdf), CDU (https://assets.ctfassets.net/nwwnl7ifahow/1C5lWfalHH8Wpw4EiCcCRJ/­ 61897b0ce57313ca7addc62e9fe936df/Wie_wir_Wahlkampf_machen.pdf), FDP (https://www.fdp.de/ sites/default/files/2021-07/2021_07_09_Pr%C3%A4sidium_Leitlinien der Freien Demokraten f%C3% BCr einen fairen Wahlkampf.pdf) und Linke (https://www.die-linke.de/wahlen/fairer-wahlkampf/). Die AfD sieht keinen Bedarf für eine wahlkampfspezifische Selbstverpflichtung, und die CSU hat zumindest keine entsprechende Einlassung öffentlich gemacht.

Einen parteiübergreifenden, gemeinsamen und umfangreichen Kodex aufzustellen, misslang jedoch erneut. Die Parteien einigten sich lediglich auf einen Minimalkonsens (https://www.tagesspiegel.de/ politik/laschet-als-ziel-von-negative-campaigning-die-spd-bricht-ein-tabu-im-wahlkampf/27490902.html). Allerdings gibt es deutliche Überschneidungen (https://leibniz-hbi.de/de/blog/wahl-watching) zwischen den Parteien und auch zu den Ideen (https://twitter.com/CampaignwatchD/status/1425739965477048321) zivilgesellschaftlicher Initiativen. Beispielsweise findet sich in allen Selbstverpflichtungen ein Bekenntnis dazu, keine Desinformation zu verbreiten und auf eigenen Onlineangeboten aktiv gegen Diskriminierungen sowie hasserfüllte Botschaften und Kommentare vorzugehen. Auch eine Kennzeichnung parteieigener Inhalte – zur klaren Abgrenzung von Meinungsbeiträgen oder journalistischen Inhalten – wird zugesagt. Aber im Punkt der zielgerichteten Werbung nehmen die Parteien keine Einschränkungen hin. Dies war ein Vorschlag von "Campaign Watch", um der Gefahr vorzubeugen, dass basierend auf persönlichen, teils sehr sensiblen, Verhaltensdaten unbemerkt kleine, homogene Gruppen im Netz angesprochen werden – beispielsweise über Soziale Medien. Zwar gehen einige Selbstverpflichtungen auf dieses sogenannte "Microtargeting" ein, jedoch sind die Formulierungen vage genug, dass es in der Praxis kaum zu mehr Transparenz und weniger ‘Targeting ‘ kommen dürfte.

Erfahrungen mit Selbstverpflichtungen

Ob solche Maßnahmen vorbeugend gegen unfaires Verhalten im Wahlkampf helfen, ist schwer einzuschätzen. Erfahrungen aus Irland und den Niederlanden wie auch erste Beispiele aus Deutschland zeigen, dass Selbstverpflichtungen dazu beitragen, Aufmerksamkeit für das Thema zu schaffen und Fehlverhalten im Nachhinein anhand klarer Maßstäbe aufzudecken. Dabei fällt der Beobachtung durch Medien, Forschung, Öffentlichkeit und auch der jeweiligen politischen Gegenseite eine wichtige Rolle zu. Die Selbstverpflichtungen sind freiwillig und sehen keine Durchsetzungsmechanismen vor. Dadurch besteht die Gefahr, dass Selbstverpflichtungen wenig mehr als leere Versprechungen sind. Öffentliche Debatten zu Fehltritten und unfairem Verhalten sind die einzige Möglichkeit, dafür zu sorgen, dass Parteien sich an Selbstverpflichtungen halten. In Deutschland beispielsweise haben die Organisationen hinter "Campaign Watch" eine Art Monitoring etabliert, indem sie den digitalen Wahlkampf und ihre Vorschläge für einen Verhaltenskodex mit der Öffentlichkeit und Politikerinnen und Politikern diskutieren und dabei auch Unterstützung aus der Forschung erhalten.[2] Auf diese Weise können Selbstverpflichtungen dazu dienen, freiwilligen Maßnahmen der Parteien und auch der Plattformen eine gewisse Verbindlichkeit zu verleihen: Parteien und Unternehmen müssen sich nicht nur an den eigenen Aussagen messen lassen, sondern an einem

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 23

öffentlichen, schriftlichen Bekenntnis.

Parteien haben einen erheblichen Anteil an der politischen Kommunikation im Wahljahr und tragen daher eine große Verantwortung für fairen digitalen Wahlkampf. Selbstverpflichtungen können ein Baustein sein, wie Parteien dieser Verantwortung gerecht werden. Im besten Fall senden Selbstverpflichtungen ein starkes positives Signal an die Bevölkerung, dass sich die Verantwortlichen für einen fairen Wahlkampf einsetzen. Wenn dieses Signal zusätzlich aus dem Parlament kommt (wie in den Niederlanden), unterstreicht dies die Bedeutung der Verhaltensregeln. Dies ist in Deutschland bisher nicht der Fall. Daneben sind auch die Plattformen gefragt, genau wie Werbeagenturen, andere politische Werbetreibende und Medien eine wichtige Rolle im digitalen Wahlkampf spielen. Um einen möglichst fairen und offenen digitalen Wahlkampf herzustellen und notfalls auch Sanktionen für unfaires Verhalten verhängen zu können, müssten daher gesetzliche Regelungen entwickelt werden, die den digitalen Wahlkampf in seiner Gesamtheit umfassen.

Fußnoten

1. Der Arbeitgeber des Autors war Teil der Initiative. 2. Siehe etwa das gemeinsame Projekt "Zahlen zur Wahl (https://www.zahlen-zur-wahl.de/)" der European New School of Digital Studies, des Weizenbaum Instituts für die Vernetzte Gesellschaft, der NRW School of Governance und des Leibniz-Institut für Medienforschung | Hans-Bredow- Institut.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 24

Transparenz als Mittel gegen die digitale Verbreitung von Desinformation

Von Dr. Eva Flecken, Dr. Gergana Baeva , Francesca Sotter 1.9.2021 ist Direktorin der Medienanstalt Berlin-Brandenburg (mabb). Zuletzt leitete sie bei Sky Deutschland die Bereiche Regulierung und Jugendschutz sowie Politik für die DACH-Region. Zuvor verantwortete sie die Bereiche Digitale Projekte, Netz- und Medienpolitik in der mabb sowie Plattformregulierung in der Gemeinsamen Geschäftsstelle der Landesmedienanstalten.

ist als Referentin für Forschungsprojekte der mabb verantwortlich. Schwerpunkte ihrer Arbeit bilden Fragen der digitalen Medienvielfalt, der Verbreitung von Inhalten online und der Informations- und Nachrichtenkompetenzen in der Bevölkerung. Zuvor forschte sie zu Rundfunkstrukturen im deutschsprachigen Raum.

ist Referentin für Programmgrundsätze und Jugendmedienschutz in der Medienanstalt Berlin-Brandenburg (mabb). Zuvor studierte sie Rechtswissenschaften an der Universität Potsdam mit dem Schwerpunkt Medien- und Wirtschaftsrecht und absolvierte ihren juristischen Vorbereitungsdienst am Brandenburgischen Oberlandesgericht.

Die Meinungsbildung in digitalen Öffentlichkeiten wird immer vielstimmiger. Wie lässt sich in diesem Umfeld Desinformation verhältnismäßig und doch wirksam begegnen?

Überall und jederzeit begegnen wir (vermeintlich) faktischen Narrativen. Eilmeldungen versorgen unseren Handyscreen mit neuesten Schlagzeilen, in unseren Timelines scrollen wir durch Artikel, Kurzvideos und Infografiken. Sie alle erwecken den Anschein einer Faktizität, wenn es sich oft nur um Meinung handelt. Nicht selten sind es auch von irreführenden Fakten oder falschen Tatsachenbehauptungen eingerahmten Meinungen, , die lautstark als alternative Wahrheiten vorgetragen werden. Eine solche Vermischung von zum Teil erfundenen Tatsachen und Interpretation stellt die Nutzerinnen und Nutzer vor einer Hürde: Sie müssen Quellen einordnen und vertrauen und eigene Meinungen herausbilden - in einer Umgebung, die wenig transparent und sehr dynamisch ist.

Erschwerend kommt hinzu, dass die Diskussionsführung mit Pseudo-Fakten unversöhnlichen geführt wird. Mit argumentativen Vorschlaghämmern wird auf Themen eingedroschen, ein vielseitiger und abwägender Diskurs kommt so kaum auf. Unter dem Deckmantel der Meinungsfreiheit wird so das Recht der Einzelnen eingeschränkt, sich ausgewogen zu informieren. Daran schließt sich zwangsläufig die Frage an, wie dem begegnet werden kann. Welche regulatorischen Mechanismen eignen sich, um Desinformation mit aller Verhältnismäßigkeit zu begegnen?

Verbreitung von Desinformation durch alternative Medien und Influencer

Wer sind die Akteure, die Falschinformation[1] verbreiten und so Meinungsmache betreiben? Eine Schwerpunktanalyse der Kommission für Jugendmedienschutz (KJM) (https://www.kjm-online.de/ fileadmin/user_upload/KJM/Publikationen/Studien_Gutachten/Schwerpunktanalyse_2020_Alternativ­ e_Medien_Ergebnisse.pdf) untersuchte knapp 800 Angebote darauf, ob sie jugendgefährdende Inhalte wie Verschwörungstheorien, Hasskommentare und Gewaltverherrlichung verbreiten. Die Angebote umfassten Webseiten, aber auch YouTube-Kanäle, Profile in den sozialen Medien und Messenger- Inhalte. Bei 35 Prozent der geprüften Angebote fand sich ein Verdacht auf beeinträchtigende Inhalte. Die Anbieter waren zum Teil Einzelpersonen mit populären Auftritten in den sozialen Medien (sog. Influencer). Andere gaben sich als Nachrichtenmedien aus, die eine alternative Berichterstattung zu aktuellen politischen und gesellschaftlichen Ereignissen anbieten. Dabei wurden neue Trends und Themen wie z.B. die Covid-19-Pandemie schnell aufgegriffen. Personen, die für sich in Anspruch nehmen, die besseren Journalisten zu sein, waren auch in einer qualitativen Untersuchung von

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 25 desinformativen YouTube-Kanälen (https://mediapolicylab.de/forschung/empfehlungen-in-krisenzeiten. html) sehr präsent.

Kleinere Plattformen und Messenger-Dienste stellen mit Blick auf die Verbreitung von Desinformation eine besondere Rolle. So zeigte die Schwerpunktanalyse der KJM (https://www.kjm-online.de/ fileadmin/user_upload/KJM/Publikationen/Studien_Gutachten/Schwerpunktanalyse_2020_Alternativ­ e_Medien_Ergebnisse.pdf), dass Anbieter mit problematischen Inhalten auf weniger reglementierte Plattformen abwandern: Bei Telegram – ein Dienst, welcher von sehr aktiven Gruppen zur Verbreitung von Verschwörungstheorien und Desinformation genutzt wird[2] – begründeten über die Hälfte der geprüften Angebote einen Anfangsverdacht; bei Twitter und Facebook waren es weniger als ein Drittel.

Defizite bei der Nachrichten- und Informationskompetenz

Desinformationen, die auch eine große Reichweite erfahren können[3], stellen die Nachrichtenkompetenz der Nutzenden auf eine harte Probe. In einer Studie der Stiftung Neue Verantwortung (https://www.stiftung-nv.de/sites/default/files/studie_quelleinternet.pdf)[4] erkannten 41 Prozent der Befragten eine Falschinformation auf Facebook trotz der Faktencheck-Hinweis nicht. Und bei einer nicht gekennzeichneten Falschinformation waren es sogar 57 Prozent. Auch das Erkennen der Neutralität einer Quelle bereitete manchen Befragten trotz eingeblendeter Hinweise große Schwierigkeiten. Insgesamt hatten 81 Prozent der Befragten nur eine mittlere oder geringe Informations- und Nachrichtenkompetenz.

Jüngere Befragte konnten gängige Labels online besser erkennen und einordnen. Junge Zielgruppen haben dagegen oft ein geringeres Wissen über klassische Medien im Vergleich zu Älteren und können politisch motivierte Interessenskonflikte schlechter erkennen. Diese Diskrepanz ist vermutlich damit verbunden, dass für diese Zielgruppe nicht-journalistische Akteure eine oft wichtigere Informationsquelle als die klassischen Medien sind.[5]

Mehr Transparenz durch journalistische Sorgfalt

Die Defizite bei der Nachrichtenkompetenz zeigen, wie wichtig verlässliche Informationsquellen und eine transparente Medienumgebung sind. Der Gesetzgeber hat daher unterschiedliche Ansatzpunkte etabliert, um der veränderten Nutzungsrealität Rechnung zu tragen.

Ein neuer gesetzlicher Auftrag der Landesmedienanstalten liegt darin, journalistisch-redaktionelle Onlineangebote in Hinblick auf ihre Sorgfaltspflichten zu beaufsichtigen, sofern sich diese nicht dem Presserat oder einer anerkannten freiwilligen Selbstkontrolle angeschlossen haben. Diejenigen, die regelmäßig Nachrichten und politische Informationen verbreiten und öffentlich meinungsbildend wirken, müssen auf ihr publizistisches Handwerk achten. Dies regelt § 19 des Medienstaatsvertrags (https://www.gesetze-bayern.de/Content/Document/MStV-19). Die Norm selbst bestimmt zwar nicht, was unter journalistischer Sorgfalt zu verstehen ist, jedoch können die publizistischen Grundsätze des Pressekodex vom Deutschen Presserat herangezogen werden.[6]

Die Regelung betrifft sämtliche Onlineangebote, die nicht ausschließlich privat genutzt sind. Sobald ein Anbieter also kontinuierlich Informationen teilt, die sich auf Tatsachen beziehen und auf die öffentliche Meinungsbildung Auswirkungen haben können, sind die Sorgfaltspflichten einzuhalten - unabhängig vom Verbreitungsweg. Diese Grundsätze stellen die Mindestanforderungen an eine diverse Presse dar, dienen jedoch nicht der Sicherstellung eines inhaltlichen Niveaus, sondern dem Schutz der Allgemeinheit und der subjektiven Rechte und Rechtsgüter des Einzelnen[7]. Anbieter haben die Pflicht, Inhalte vor der Verbreitung auf die Wahrheit und Herkunft zu prüfen. Unbestätigte Meldungen, Gerüchte und Vermutungen sind als solche kenntlich zu machen[8].

Bei der Bewertung von Verstößen gegen die Sorgfaltspflichten gehen die Landesmedienanstalten derzeit stufenweise vor. Bevor ein förmliches Verfahren eingeleitet wird, werden Hinweisschreiben

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 26 verschickt, damit die Anbieter Stellung beziehen und gegebenenfalls ihr Angebot anpassen können. Erste Beobachtungen zeigen, dass bereits ein solch niedrigschwelliger Kontakt Wirkung bei den Anbietern zeigte. Führen die Hinweisschreiben jedoch nicht zu einer entsprechenden Reaktion der Anbieter, so kommen weitere Maßnahmen der Rundfunkregulierung, wie Beanstandung und Untersagung zur Anwendung, so dass zur Not die Verbreitung von Falschinformation verboten werden kann.

Transparenz bei der politischen Onlinewerbung

So wie auch Hörerinnen und Zuschauer im klassischen Hörfunk und TV davor geschützt werden, einem Medieninhalt kontextlos ausgesetzt zu sein, so sind auch online Kennzeichnungen vorgesehen. Was ein Werbebanner zwischen den beiden Serienepisoden im Fernsehen ist, ist online die eindeutige Kennzeichnung eines Posts als „Werbung“. Nutzerinnen und Nutzer wollen wissen, ob ein Influencer eine neue Spielekonsole anpreist, weil er diese selbst gekauft und ausprobiert hat, oder weil er für eine werbliche Botschaft bezahlt wurde.

Ungleich relevanter werden Werbekennzeichnungen, wenn es sich nicht um Lippenstifte, sondern um politische Botschaften handelt. Mit politischer Werbung sind in der Regel bezahlte Inhalte gemeint, die im Auftrag oder im Interesse staatlicher Stellen, Parteien oder auch sonstigen Dritten verbreitet werden, um auf die politische Meinungsbildung abzuzielen.

Ähnlich wie im klassischen Rundfunk darf auch online in solchen Angeboten, die dem Hörfunk und Fernsehen ähnlich sind, nicht politisch geworben werden. In sogenannten einfachen Telemedien, die keine oder nur wenige Video- und Audioinhalte enthalten, darf hingegen politisch geworben werden, allerdings muss dies gekennzeichnet werden. Diesem Transparenzgebot wird nicht damit genüge getan, wenn "Werbung" in einer Ecke erscheint. Vielmehr muss der Werbetreibende oder Auftraggeber erkennbar sein. Denn freie Meinungsbildung setzt voraus, dass Nutzerinnen und Nutzer wissen, wer und mit welcher Intention zu ihnen spricht.

Neutrale und verhältnismäßige Maßnahmen gefordert

Die Verbreitung von unbelegten Tatsachenbehauptungen und deren Instrumentalisierung für eine politisch motivierte Meinungsmache sind aktuell zentrale Herausforderungen für die Gesellschaft. Auch wenn Falschinformation keineswegs ein neues Phänomen ist, so ist sie online schwieriger zu erkennen sowie leichter und schneller zu verbreiten.

Auch die Online-Plattformen sind gefordert, mehr Transparenz für Nutzerinnen und Nutzer zu schaffen und Problematisches zu kennzeichnen. Nicht zuletzt geht es auch um Fragen des Designs: Indem ein einfaches Weiterleiten von Inhalten durch Popup-Fenster unterbrochen wird, kann z.B. ein Bewusstsein für die kritische Prüfung von Inhalten gefördert werden[9].

Bei all den zu ergreifenden Maßnahmen steht jedoch die Sicherung der Meinungsfreiheit im Mittelpunkt. Meinungen sind schon mal geschmacklos, gar widerlich. Doch in einer Demokratie gilt: im Zweifel für die Meinungsfreiheit. Ultimativ müssen wir derlei schwer ertragbare Äußerungen aber eben genau das: ertragen. Und da, wo nicht nur die Grenzen des guten Geschmacks, sondern des Gesetzes überschritten werden, schreitet die Regulierung ein. Mit Augenmaß und Sorgsamkeit.

Fußnoten

1. Zum Begriff der Desinformation vgl. Möller/Hameleers/Ferreau (2020): Typen von Desinformation und Misinformation. Berlin: die-medienanstalten.de (PDF) (https://www.die-medienanstalten.de/

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 27

fileadmin/user_upload/die_medienanstalten/Publikationen/Weitere_Veroeffentlichungen/ GVK_Gutachten_final_WEB_bf.pdf.) 2. Vgl. Jünger/Gärtner (2020): Datenanalyse von rechtsverstoßenden Inhalten in Gruppen und Kanälen von Messengerdiensten am Beispiel Telegram. Düsseldorf (PDF) (https://www. medienanstalt-nrw.de/fileadmin/user_upload/NeueWebsite_0120/Zum_Nachlesen/Telegram- Analyse_LFMNRW_Nov20.pdf). 3. So haben 71 Prozent der Befragten laut einer Studie im Auftrag der Landesanstalt für Medien NRW 2021 politisch motivierte Desinformation im Internet wahrgenommen (PDF) (https://www. medienanstalt-nrw.de/fileadmin/user_upload/NeueWebsite_0120/Themen/Desinformation/Forsa_Desinfo_2021. pdf). 4. Die Studie der Stiftung Neue Verantwortung, ein politischer Think Tank zu Themen der Digitalisierung und neuer Technologien, wurde von der Beauftragten der Bundesregierung für Kultur und Medien (BKM), der Bundeszentrale für politische Bildung, der Landesanstalt für Medien NRW und der Medienanstalt Berlin-Brandenburg (mabb) unterstützt. 5. Vgl. Hasebrink/Hölig/Wunderlich (2021): #UseTheNews. Studie zur Nachrichtenkompetenz Jugendlicher und junger Erwachsener in der digitalen Medienwelt. Hamburg (PDF) (https://leibniz- hbi.de/uploads/media/default/cms/media/dso9kqs_AP55UseTheNews.pdf) 6. Vgl. Begründung zum Staatsvertrag zur Modernisierung der Medienordnung in Deutschland (PDF) (https://www.kjm-online.de/fileadmin/user_upload/Rechtsgrundlagen/Gesetze_Staatsvertraege/ ModStV_Amtliche_Begru__ndung_RLP.pdf). 7. Vgl. Heins/Lefeldt (2021): Medienstaatsvertrag: Journalistische Sorgfaltspflichten für Influencer* innen. In: MMR 2021, 126; Lent (2020): Paradigmenwechsel bei den publizistischen Sorgfaltspflichten im Online-Journalismus – Zur Neuregelung des § 19 Medienstaatsvertrag. In: ZUM 2020, 593. 8. Vgl. LT-Drs. NRW 17/9052, 135 (https://www.landtag.nrw.de/portal/WWW/dokumentenarchiv/ Dokument/MMD17-9052.pdf) 9. Vgl. Abstiens (2021): To share or not to share. Nudging zur Reduzierung von Fake News. In: Insight Austria Aktuell. Die Perspektive der Verhaltensökonomie (PDF) (https://insight-austria.ihs. ac.at/bessere_entscheidungen/to-share-or-not-to-share/).

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 28

Bundestagswahl und digitale Desinformation I

Von Erik Meyer 1.9.2021 ist Politikwissenschaftler und arbeitet als freier Journalist und Dozent zur Digitalisierung in Politik, Pop und Erinnerungskultur. Er ist Autor von „Zwischen Partizipation und Plattformisierung: Politische Kommunikation in der digitalen Gesellschaft“ (2019)

Ein wöchentlicher Rückblick auf Berichte zum Thema und Inhalte sowie Formate auf Social- Media-Plattformen und in Messenger-Diensten. Was gibt es dazu für Faktenchecks und Einschätzungen aus Wissenschaft und Zivilgesellschaft?

Nach dem Sturm auf das US-Kapitol durch einen über den Ausgang der Präsidentschaftswahl desinformierten Mob und im Hinblick auf eine in Deutschland im Kontext der Corona-Pandemie weiter polarisierte Öffentlichkeit wird befürchtet, dass auch der Bundestagswahlkampf durch digitale Desinformation beeinflusst werden könnte. Diese Befürchtung behandelt auch die investigative TV- Reportage Wahlkampf undercover – Wie PR-Profis uns manipulieren (https://www.rbb-online.de/doku/ u-w/wahlkampf-undercover---wie-pr-profis-uns-manipulieren.html), die unter dem Titel Virtuelle Propaganda (https://www.ardaudiothek.de/episode/das-feature/virtuelle-propaganda-digitale-stimmungsmache- im-wahlkampf/bremen-zwei/92512638) zudem in einer Version zum Anhören verfügbar ist. Der Journalist Peter Kreysler gab sich dafür als Wahlkampfmanager aus, der sich von internationalen Agenturen Konzepte für eine Kampagne präsentieren ließ. Dabei wurden auch obskure datengetriebene Angebote unterbreitet, mit der auf Wahlentscheidungen Einfluss genommen werden soll. Konkrete Belege für die Anwendung von in Deutschland nicht zulässigen Verfahren im aktuellen Bundestagswahlkampf präsentiert der Beitrag aber nicht. Doch problematisch bleibt eine Grauzone zur Wahlkampfführung im Netz, in der mehr verbindliche Regeln und freiwillige Transparenz notwendig erscheinen.

Plattform-Politik

Selbst wenn sie sich darum in unterschiedlichem Ausmaß bemühen, verhindern können Social-Media- Plattformen die Verbreitung von Desinformation nur in einem begrenzten Ausmaß. Deshalb spielt einerseits die Entlarvung irreführender Medien-Inhalte, die bereits verbreitet worden sind, eine Rolle. Dieses "Debunking" übernehmen häufig unabhängige Faktencheck-Organisationen, die den Wahrheitsgehalt von Angaben mit journalistischen Mitteln prüfen. Auch in den geschlossenen Gruppen von Messenger-Diensten können sich solche Inhalte viral verbreiten. Rechtzeitig zur Bundestagswahl haben der Facebook-Messenger (https://www.facebook.com/afpfaktencheck) und WhatsApp (erreichbar unter +491722524054) darauf mit einer Anwendung reagiert, die inhaltlich von der Nachrichtenagentur AFP betreut wird. Dort können Faktenchecks angezeigt und Fragen gestellt oder unglaubwürdige Behauptungen auch als Video, Audio oder Bild zur Prüfung eingereicht werden. Die Kommunikation erfolgt automatisiert mittels einer "Chatbot"-Anwendung und weist aktuell noch Defizite auf, wie ein Test im Online-Magazin Netzpolitik (https://netzpolitik.org/2021/faktencheck-ein-chat-bot- soll-bei-whatsapp-falschnachrichten-aufdecken/) darlegt.

Eine alternative Vorgehensweise, die vor allem im Kampf gegen Falschinformationen zur Coronavirus- Pandemie forciert wurde, ist das Prebunking (https://firstdraftnews.org/articles/a-guide-to-prebunking- a-promising-way-to-inoculate-against-misinformation/?mc_cid=244c5eba4d&mc_eid=be43181caa). Dabei werden offizielle Informationen zu einem Thema präventiv durch das Plattformdesign priorisiert. Hier einige aktuelle Beispiele für diese Praxis der Moderation von Inhalten bei der Bundestagswahl:

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 29

• Wer bei der Google nach "Briefwahl" sucht (https://www.google.com/search?q=briefwahl), bekommt als ersten Eintrag eine ausführliche "Anleitung zum Wählen" angezeigt, deren Quelle der Bundeswahlleiter ist. Erst dann folgen weitere Suchergebnisse. YouTube blendet auf der personalisierten Startseite von Nutzenden zuweilen ein Banner zur Bundestagswahl ein und verweist damit auf die gleichen Google-Suchergebnisse.

• Wer wiederum bei Twitter nach Begriffen mit Bezug zur Bundestagswahl sucht (https://twitter.com/ search?q=w%C3%A4hlen), bekommt an der Spitze der Ergebnisse einen Eintrag angezeigt: "Fragen zur Bundestagswahl? Hier finden Sie aktuelle Informationen zur Bundestagswahl am 26. September 2021." Es folgen Links zum Bundeswahlleiter und zur Bundeszentrale für politische Bildung.

Faktencheck der Woche

Der Bundeswahlleiter, der für die Überwachung der ordnungsgemäßen Vorbereitung und Durchführung der Wahl zuständig ist, informiert unter anderem bei Instagram (https://www.instagram.com/ wahlleiter_bund/) umfassend über Verfahren und Vorgehensweise. Auf seiner Website gibt es auch die Rubrik Fakten gegen Fake News (https://www.bundeswahlleiter.de/bundestagswahlen/2021/ fakten-fakenews.html), in der bekannte falsche Angaben aufgegriffen und richtiggestellt werden. Ein Beispiel ist folgende Behauptung: "Erstwählerinnen und -wähler könnten bei der Stimmabgabe zur Bundestagswahl an einem Gewinnspiel teilnehmen, indem sie ihren Namen auf den Stimmzettel schreiben." Ein solches Gewinnspiel gibt es natürlich nicht. Vielmehr macht eine solche Kennzeichnung den Stimmzettel zur Niete: "Wird ein Hinweis auf die Wählerin oder den Wähler (zum Beispiel durch Namensangabe) auf den Stimmzettel geschrieben, so wird dieser wegen Gefährdung des Wahlgeheimnisses ungültig (§ 39 Absatz 1 Satz 1 Nummer 5 BWG)."

Forschung statt alternative Fakten

Einzelne Falschmeldungen können auf den dargestellten Wegen zwar berichtigt werden, aber darüber hinaus haben sie häufig auch eine kommunikative Funktion in den Konversationen, die mittels sozialer Medien geführt werden. Die Rede ist dann auch von "alternativen Fakten": "Tatsachenbehauptungen, die gegen als gemeinhin akzeptiert behandelte Tatsachenfeststellungen vorgebracht werden und sich dabei der diskursiven Klärung des zugrundeliegenden Sachverhalts verweigern". So formulieren es Hannah Trautmann und Nils C. Kumkar in einer gerade veröffentlichten Studie für die Otto-Brenner- Stiftung (https://www.otto-brenner-stiftung.de/wissenschaftsportal/informationsseiten-zu-studien/alternative- fakten-im-gespraech/). Diese Konstellation haben sie an Hand von Kommentaren auf vielfrequentierten Facebook-Seiten im Umfeld der AfD analysiert und weniger Wissensunsicherheit als politische Konfliktaustragung festgestellt.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 30 Was tun?

"Auf der Grundlage repräsentativer Daten, die die Vodafone Stiftung Deutschland in den Jahren 2018-2021 für eine Serie von Jugendstudien erhoben hat, hat der Politikberater und Publizist Martin Fuchs zwölf Empfehlungen formuliert, um junge Menschen gegen Desinformation und Hassrede im Netz stark zu machen und die digitale Diskussionskultur zu fördern." Seine Forderungen unter dem Titel Souverän im Netz (PDF) (https://www.vodafone-stiftung.de/wp-content/uploads/2021/08/Policy- Paper_Vodafone-Stiftung_Desinformation.pdf) fokussieren folgende Handlungsfelder:

1. Fördert die digitale Diskussionskultur bei Jugendlichen

2. Lasst die Generation Z im Netz nicht allein

3. Bekämpft Desinformation nicht nur im Wahlkampf

Weitere Ausgaben:

• Bundestagswahl und digitale Desinformation II (9.9.2021)

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 31

Desinformation - Der globale Blick

23.9.2021

In der Podcast-Reihe gehen wir der Frage nach, ob und wie Fehlinformationen auf Demokratien wirken und wie man (anders) mit ihnen umgehen könnte. (http://www.bpb.de/mediathek/340539/netz-aus-luegen) In dem Podcast "Netz aus Lügen - die globale Macht von Desinformation" wollen wir über den Tellerrand schauen. Wir wollen uns das Themenfeld der Falsch- und Desinformation weltweit ansehen und dabei den Blick auf ein globales Phänomen schärfen.

Am Anfang der Podcastrecherche standen viele Fragen: Was bedeutet eigentlich Desinformation? Welche Auswirkungen haben Falschinformationen für demokratische Gesellschaften? Welches Ziel verfolgen Akteure, wenn sie bewusst Fehlinformationen streuen? Und: Gibt es innovative Wege mit irreführenden Informationen und Geschichten anders umzugehen als wir es bisher tun?

In den sieben Folgen reisen wir von Europa über Asien bis nach Nordamerika und merken schnell, dass es - trotz unterschiedlicher lokaler Kontexte - viele Gemeinsamkeiten gibt. Diese Gemeinsamkeiten helfen uns strukturelle Herausforderungen besser zu verstehen, etwa welche Rolle polarisierte Gesellschaften oder Plattformlogiken bei der Verbreitung und Wirkungsmacht von Falschinformationen spielen.

"Netz aus Lügen – Die globale Macht von Desinformation" ist ein Podcast der Bundeszentrale für politische Bildung/bpb. Ab 22.9.2021 geht’s los! Ihr habt Fragen, Kritik, Lob? Schreibt uns gern an [email protected].

Jetzt auch anhören bei Apple Podcasts (https://podcasts.apple.com/de/podcast/netz-aus-l% C3%BCgen-die-globale-macht-von-desinformation/id1586798728), Deezer (https://deezer.com/ show/3004272), Spotify (https://open.spotify.com/show/53IZmNfeOixGviPXlzw7rB) und bei

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 32

YouTube (https://www.youtube.com/playlist?list=PLGwdaKBblDzBY8RAueBX4-PC8ZR3Muzz0).

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 33

Podcast: Netz aus Lügen – Der Hack (1/7)

Von Christian Alt, Jochen Dreier, Sylke Gruhnwald 22.9.2021 Christian Alt ist Audiojournalist, Buchautor und Gründer der Podcast-Agentur "Kugel und Niere". Für sein Feature "Eine Verschwörungstheorie Marke Eigenbau" wurde er mit dem Robert-Geissendörfer-Preis ausgezeichnet.

Jochen Dreier ist Audiojournalist. Er arbeitet als Redakteur und Reporter für das Deutschlandradio und weitere öffentlich-rechtliche Sender. Außerdem entwickelt, schreibt und produziert er Podcasts für u.a. Audible und Der Spiegel.

Sylke Gruhnwald ist Mitbegründerin von Hacks / Hackers Zürich, Lobbywatch.ch sowie dem Reporter-Forum Schweiz. Nach einem Studium der Sinologie und Betriebswirtschaftslehre arbeitete sie für die Schweizer Tageszeitung Neue Zürcher Zeitung (NZZ), das öffentlich-rechtlichen Schweizer Radio und Fernsehen (SRF)und leitete das Digitalmagazin Republik.

Seit Anfang des Jahres werden die privaten E-Mail-Adressen von Bundestagsabgeordneten angegriffen. Die Bundesregierung macht den russischen Militärgeheimdienst dafür verantwortlich. Es wird befürchtet, dass mithilfe der gestohlenen Daten in den Prozess der öffentlichen Meinungsbildung eingegriffen werden könnte. In Polen kann man bereits sehen, wie Desinformationskampagnen nach solchen Angriffen ablaufen. In der ersten Folge des Podcasts "Netz aus Lügen – Der Hack" zeigen wir wie die sogenannte Operation "Ghostwriter" funktioniert und welche Konsequenzen das haben kann.

Diese Folge wurde geschrieben von Christian Alt, Sylke Gruhnwald und Jochen Dreier. Redaktion bpb: Marion Bacher Audio-Produktion: Simone Hundrieser Fact-Checking: Karolin Schwarz Produktionshilfe: Lena Kohlwees. "Netz aus Lügen - die globale Macht der Desinformation” ist ein In der ersten Folge "Der Hack" gehen wir der Frage nach, welche Podcast der Bundeszentrale für politische Bildung. Konsequenzen Desinformationska­ mpagnen nach Hacking-Attacken haben. (http://www.bpb.de/gesellschaft/ digitales/digitale-desinformation/340624/ • 00:00 – Einstieg: Sturm auf das Kapitol, Washington, DC folge-1-der-hack)

• 03:24 - Um was geht es in dem Podcast?

• 05:45 – Bericht der East StratCom Task Force

• 09:31 – Was ist Ghostwriter?

• 13:48 – Hack-and-Leak in Polen

• 24:57 – Was meinen wir, wenn wir von Desinformation sprechen?

• 26:48 – Polarisierung ist der Schlüssel

• 29:50 – Gestohlene Social-Media-Accounts in Deutschland

• 40:45 – Wer ist Ghostwriter? - Die Reaktion der Bundesregierung

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 34

• 44:17 – Ausblick

Jetzt auch anhören bei Apple Podcasts (https://podcasts.apple.com/de/podcast/netz-aus-l% C3%BCgen-die-globale-macht-von-desinformation/id1586798728), Deezer (https://deezer.com/ show/3004272), Spotify (https://open.spotify.com/show/53IZmNfeOixGviPXlzw7rB) und bei YouTube (https://www.youtube.com/playlist?list=PLGwdaKBblDzBY8RAueBX4-PC8ZR3Muzz0).

Transkript von "Netz aus Lügen - Der Hack (1/7)"

0:00 Zuspieler (ZSP) Capitol Riots 6. Januar 2021. Mittwoch. Es ist zuerst nur ein Raunen, das durch die sozialen Netzwerke geht. Erste Meldungen über das, was in Washington passiert. Menschen drängen zum Kapitol. Schnell tauchen die ersten Fotos auf, alles wird live gestreamt und es wird klar: Hier droht etwas aus dem Ruder zu laufen.

Der Nachrichtensender CNN reagiert schnell, erste Kameraaufnahmen zeigen die Demonstrierenden – inzwischen werden sie von vielen bereits als Terroristen und Terroristinnen bezeichnet. Sie haben einen Galgen für Vize-Präsident Mike Pence aufgebaut.

Denn der ist gerade genau wie die 100 Senatorinnen und Senatoren im Kapitol. In der zweiten Kammer kommen dazu noch die 435 Mitglieder des Repräsentantenhauses. Hier zählen sie die Stimmen der Bundesstaaten aus - es ist der letzte Schritt, der die Wahl von Joe Biden offiziell macht.

Nur hat einer damit ein Problem.

ZSP Trump "Ich hoffe, Mike Pence wird das Richtige tun. Denn wenn er das richtige tut, dann gewinnen wir die Wahl. Die Staaten sind betrogen worden, sie haben die Wahlergebnisse aufgrund falscher Ergebnisse zertifiziert, nun wollen sie eine neue Zertifizierung. Das einzige, was Vizepräsident Pence tun muss, ist, die Resultate zurückzuschicken für eine neue Zertifizierung. Und wir werden Präsident und ihr alle seid glückliche Leute."

Dass Mike Pence hier am Resultat der demokratischen Wahl nichts ändern konnte: geschenkt. Nach der Trumprede marschieren Protestierende aufs Kapitol. Sie wollen rein, wollen, dass die Auszählung gestoppt wird. Dass Donald Trump Präsident bleibt.

ZSP Capitol Riots Sie schlagen Fensterscheiben ein. Verwüsten Büros. Abgeordnete werden durch geheime Tunnelsysteme in Sicherheit gebracht.

Fünf Menschen sterben.

Und all das wegen einer Lüge.

Über Jahre hat Donald Trump die Angst vor falscher Stimmabgabe geschürt. Die Briefwahl, die im Corona-Jahr 2020 wichtig wurde, war Trump und seiner Partei schon länger ein Dorn im Auge.

Gut. Von Donald Trump haben wahrscheinlich die wenigsten einen anständigen Abgang erwartet. Aber… was dann doch überrascht hat, war, wie viele bereit waren mitzumachen. Wie viele Mitglieder der republikanischen Partei im vollen Ernst behaupteten, dass es wirklich Ungereimtheiten bei der Wahl gab. Und … wie viele heute noch diese Lüge glauben. 53 Prozent aller republikanischen

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 35

Wählerinnen und Wähler gaben im Mai bei einer Umfrage an, dass Donald Trump der rechtmäßige Präsident sei. 53. Prozent.

Wie kann das sein? Wie wird aus einer Lüge für viele Menschen die Wahrheit?

Jingle: "Netz aus Lügen - Die globale Macht der Desinformation" - ein Podcast der Bundeszentrale für politische Bildung. Folge 1 - Der Hack

03:24 Hallo, mein Name ist Ann-Kathrin Büüsker und in diesem Podcast geht es um Lügen. Damit meinen wir nicht Alltagslügen wie "Sorry, mein Computer hatte sich aufgehängt, deshalb bin ich zu spät zum Meeting” - sondern politische Lügen. Lügen, die Menschen täuschen sollen, sie verunsichern, sie zweifeln lassen an der Demokratie. Kurz: wir reden über Desinformation.

In diesem Podcast wollen wir über den Tellerrand schauen. Wir wollen uns Desinformation weltweit ansehen. Raus aus Deutschland, um den Blick für die Dinge zu schärfen, die alle Lügen gemeinsam haben.

Jede Folge schauen wir uns ein anderes Land an. Von Russland über die USA, bis nach Taiwan - wir wollen rausfinden: welche Rolle spielt Desinformation in der Welt? Ist es wirklich so schlimm wie wir denken - oder ist Desinformation nur ein Gespenst?

Fangen wir mal bei uns selbst an - denn schließlich stehen hier auch gerade Wahlen an.

ZSP Bundestag "Ich rufe den Tagesordnungspunkt 24 auf: Beratung des Antrags der Abgeordneten "

Donnerstag, 22. April 2021. Der Wahlkampf, er hat just in dieser Woche angefangen. Gerade hat die Union ihren Kanzlerkandidaten Armin Laschet vorgestellt und damit wurde auch ein monatelanger Machtkampf, wer denn nun von Unions-Seite antritt, beendet. Auch wenn der September noch ewig weit weg scheint - im Bundestag geht es schon ums Ganze. Der FDP-Abgeordnete Konstantin Kuhle bringt mit anderen Fraktionsmitgliedern einen Antrag ein. Er fordert unter anderem die Gründung einer Taskforce gegen Desinformation, in der dann vom Auswärtigen Amt über das Innenministerium bis zum Bundesnachrichtendienst alle Informationen gebündelt werden. Außerdem fordert er von den Plattformen mehr Informationen über Desinformationskampagnen.

ZSP Kuhle "Wir mu ssen die Social-Media-Plattformen an einen Tisch bekommen, und wir du rfen es uns mit unserer freiheitlich-demokratischen Grundordnung und als offene Gesellschaft nicht gefallen lassen, dass wir unterwandert werden, mit dem Ziel, diese Errungenschaften abzuschaffen. Schu tzen wir gemeinsam die Bundestagswahlen 2021! Ich freue mich auf die Debatte."

Wer sich jetzt vielleicht ein bisschen am Kopf kratzt und fragt… "Moment mal. Was ist denn eigentlich passiert? Ist die Wahl denn gefährdet?”, der ist nicht alleine. Wirkliches Aufmacherthema war das im Frühjahr nicht, aber Kuhle bezieht sich in seinem Antrag auch auf einen neuen Bericht.

ZSP Kuhle "Es gibt Untersuchungen, des Auswärtigen Europäischen Dienstes, die ganz klar benennen, dass es kein Land in der Europäischen Union gibt, das in so einem starken Fokus der Desinformation steht, wie die Bundesrepublik Deutschland"

05:45 Dieser Bericht kommt von der "East Stratcom Task Force” des Europäischen Auswärtigen Diensts. Diese beschäftigt sich primär mit Desinformation, die Osteuropa betrifft. Und im März 2021 gibt diese Taskforce einen Bericht heraus, der es in sich hat.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 36

ZSP Güllner "Also dieser Bericht, den mein Team gemacht hat, der hat sich einfach mal angeschaut: Was ist in den letzten zwei Jahren passiert, was haben wir da für Fälle gesehen?"

Das ist Lutz Güllner. Er ist der Leiter der Desinformations-Taskforce.

"Wer ist da eigentlich in die Zielscheibe gekommen? Oder wer war da so ein bisschen im Fadenkreuz? Welche Länder waren das, welche Themen? Und uns ist aufgefallen, dass über die letzten 18 Monate, dass sich das so ein bisschen verschoben hat, dass Deutschland - das lange Zeit eigentlich gar nicht so sehr in den Mittelpunkt oder in die Zielscheibe genommen wurde durch die bekannten Akteure - dass es da immer mehr sozusagen Fokus gab."

Er und sein Team sorgen sich vor allem um die Manipulation von Wahlen. Dem heiligsten Prozess einer jeden Demokratie.

ZSP Güllner "Wir haben es gesehen in den Vereinigten Staaten. 2016. Auch 2020 noch mal. Wir haben es gesehen in Frankreich 2017, in vielen anderen Bereichen, dass man tatsächlich mit dieser Desinformation solche Prozesse destabilisieren kann. Manchmal kann man sogar die Ergebnisse beeinflussen. Wie sehr. Das muss man noch genau untersuchen. Also da gibt's keine Regel, dass man da irgendwie fünf oder zehn Prozent hin und herschieben kann. So einfach ist es auch nicht. Aber man kann das gesamte Umfeld vorher beeinflussen. Und das macht es dann doch ein bisschen gefährlicher."

Gegründet wurde die Task-Force im Jahr 2016. Die EU-Staaten wollten auf russische Desinformationskampagnen in Osteuropa reagieren, die nach der Annexion der Krim 2014 immer lauter wurden.

ZSP Güllner "Also ursprünglich haben wir ja mal angefangen mit einem ganz klaren, relativ eng begrenztem Auftrag. Es war 2016, als die Task Force geschaffen wurde. Da sollte man sich anschauen: "Wie funktionieren insbesondere die russischen Desinformationskampagnen bei unseren östlichen Nachbarn?” Also das war die Zeit der Ukraine, die Annexion der Krim. Der Krieg begann in der Ostukraine und es gab ein massives - ja, wie soll ich sagen - ein flächendeckendes Ausführen von Desinformationskampagnen von russischen Akteuren in der Ukraine insbesondere. Und da hat sich die EU gesagt: Wir müssen dagegenhalten."

Und obwohl die Task-Force des Europäischen Auswärtigen Dienstes natürlich eine Institution mit klarem politischen Auftrag ist. Lutz Güllner ist Fachmann - er und sein Team schauen sich genau an, wie groß die versuchte Einflussnahme in europäischen Staaten ist. Auf der Webseite der Taskforce wird dann zusammengetragen, welche Narrative im Umlauf sind - zum Redaktionsschluss hat die Datenbank 12784 Einträge. Diese Datenbank ist das Herzstück der Arbeit - zusätzlich veröffentlicht Güllners Taskforce noch Analysen, berät Mitgliedsstaaten und Think Tanks.

Konstantin Kuhle sagt im Bundestag: Es geht hier nicht nur um pro-russische Narrative. Der Westen soll als handlungsunfähig erscheinen.

ZSP Kuhle "Autoritäre Regierungen nutzen das Internet als Kommunikationsplattform, aber auch als Plattform für Cyberangriffe. Sie nutzen die sozialen Medien, sie nutzen verdeckte Finanzierungen, sie nutzen andere Wege, um die Willensbildung in demokratischen Staaten Europas auf ganz unterschiedlichen Kanälen zu beeinflussen. Warum tun sie das, meine Damen und Herren? Sie tun das aus folgendem Grund: Je mehr Menschen an der Handlungsfähigkeit staatlicher Organisationen und Institutionen zweifeln, umso leichter können sich Putin und Erdogan als starke Führungspersönlichkeiten inszenieren."

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 37

Wir wollen in dieser Folge herausfinden, wie Desinformation aus dem Ausland gestreut wird. Und ob diese Desinformation genutzt werden kann, in unseren Wahlkampf einzugreifen.

09:31 Ganz konkret geht es um eine Aktion, die mit Hacks und Leaks arbeitet und vermutlich aus Russland kommt. Konstantin Kuhles Rede im deutschen Bundestag hat einen ganz konkreten Anlass. Denn spätestens seit Februar gibt es eine koordinierte Hacking-Attacke gegen Mitglieder des deutschen Bundestags. Das Ziel: Desinformation soll auf ihren Social-Media-Accounts verbreitet werden.

ZSP Kuhle "Was passiert konkret, und was muss geschehen? Erstens. Wir erfahren in diesen Tagen, dass in den letzten Wochen und Monaten mindestens sieben Bundestagsabgeordnete zum Ziel, zu Opfern von Phishing-Angriffen geworden sind. Da wird versucht, Passwörter auszuforschen, mit denen man sich in die Social-Media-Präsenzen von Abgeordneten einloggen kann, um dort Desinformation zu verbreiten. Was lernen wir daraus? Wir müssen nicht nur an der IT-Sicherheit der Exekutive arbeiten, sondern auch an der IT-Sicherheit der Legislative, auch bei den Kandidatinnen und Kandidaten, bei den Parteien, bei den Landespolitikern, bei den Kommunalpolitikern."

"Ghostwriter” heißt die Operation dahinter.

Das US-amerikanische Sicherheitsunternehmen Mandiant hat die Operation Ghostwriter getauft, weil "Einheimische, Journalistinnen und Analysten in den Zielländern nachgeahmt werden, um Artikel und Meinungsbeiträge zu posten.” Ghostwriter produziert falsche Nachrichten, verschafft sich dann Zugang zu Nachrichtenseiten und Blogs in Litauen, Lettland und Polen, schreibt Mandiant .

Hier ein paar Meldungen, die Ghostwriter in den vergangenen Jahren auf Nachrichtenseiten und Blogs platziert hat.

SPR2 28. März 2017: Deutscher Bundeswehroffizier ist ein russischer Spion

SPR3 7. Juni 2018: Ein Nato-Panzer überfährt ein litauisches Kind

SPR2 29. Mai 2019: Deutsche Nato-Soldaten schänden einen jüdischen Friedhof in Litauen

SPR3 20. April 2020: Kanadische Nato-Soldaten schleppen Covid-19 nach Lettland ein

All diese Meldungen sind falsch, erstunken und erlogen. Und alle Meldungen sollen wohl Misstrauen gegen die Nato in baltischen Ländern und Polen schüren. Die Ghostwriter-Kampagne folgt dabei " russischen Sicherheitsinteressen”, wie Mandiant schreibt.

Und diese Kampagne… die soll jetzt eben auch in Deutschland laufen.

ZSP Haldenwang "Seit Februar diesen Jahres beobachtet das BfV intensive Angriffs-Aktivitäten eines Cyber-Akteurs in Deutschland."

Eine eilig einberufene Pressekonferenz in Berlin. Es ist der 14. Juli. Innenminister Horst Seehofer, der Bundeswahlleiter, der Chef des Bundesamts für Sicherheit in der Informationstechnik und der Chef des Verfassungsschutzes Thomas Haldenwang sprechen. Haldenwang haben wir gerade schon gehört.

"Nach bisheriger Kenntnislage ist ein nachrichtendienstlicher Hintergrund wahrscheinlich. Im Fokus dieser Phishing-Angriffe der Cyber-Gruppierung Ghostwriter stehen insbesondere private E-Mail-

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 38

Adressen von Abgeordneten des Deutschen Bundestages und der Landtage und deren Mitarbeitende."

Im Nicht-Fachdeutsch heißt das: Ghostwriter versucht deutsche Abgeordnete auf Fake-Webseiten zu locken, die zum Beispiel aussehen wie ihr Online-Banking oder ein Online-Shop. Wenn diese dann dort ihr Passwort eingeben, dann haben das die Hacker. Oder Hackerinnen.

Nochmal Thomas Haldenwang: "Das Konto einer Person wird gleichsam gekapert und mit gestohlenen Daten bestückt. So ist es auch in anderen Ländern geschehen. Desinformationen können außerdem über weitere Verbreitungswege in Umlauf gebracht werden. Hierzu gehören sogenannte Hack-and-Publish-Operationen, bei denen echte und damit grundsätzlich glaubwürdige Nachrichtenseiten im ersten Schritt angegriffen und dann kompromittiert werden, um dann in einem zweiten Schritt Desinformationen auf diesen Nachrichtenkanäle zu veröffentlichen. Das ist nur ein kleiner Auszug der Bedrohungssituation."

Das, was Thomas Haldenwang so trocken erzählt, ist eigentlich ein ziemlicher Hammer. Das merkt man, wenn man den Blick aus Deutschland richtet, und sich ein Land anschaut, bei dem Ghostwriter schon länger aktiv ist.

13:48 Polen. Ich male kurz ein Bild. Stellt euch vor, die E-Mails von Kanzleramtsminister würden gehackt werden. Und dann gäbe es eine Telegram-Gruppe, ich nenne sie mal "Braun Leaks”, die andauernd neue Mails von Braun posten. Passend mit lustigen Sprüchen und Memes.

Genau das ist in Polen passiert. Die Mails des dortigen Kanzleramtsministers Michalł Dworczyk - der Job ist jetzt nicht hundertprozentig derselbe aber sehr nah dran - wurden im Juni 2021 geleaked, auf Telegram. Zum Beispiel die Nachricht von Dworczyk, in der er einen Einsatz der polnischen Armee gegen Demonstrantinnen gegen das Abtreibungsverbot ablehnt.

Der Telegram-Kanal hatte 90.000 Abrufe am Tag - bis er stillgelegt wurde.

Nicht nur Michał Dworczyk ist betroffen. Mehr als 700 gehackte E-Mail-Accounts wurden bislang gefunden. Wie viel Material wirklich abgefischt wurde, ist noch nicht bekannt. In manchen Fällen gab es sogar direkten Zugriff auf die Social-Media-Konten von Politikerinnen und Politikern.

Im Januar wurde zum Beispiel der Twitter-Account des stellvertretenden Fraktionsvorsitzenden der regierenden PiS-Partei von Ghostwriter übernommen. Auf dem Account von Marek suski wurden Bilder gepostet, die eine Lokalpolitikerin der PiS-Partei in roter Unterwäsche zeigten. Dazu die Aufforderung, dass die Politikerin aufhören solle, ihm Fotos zu schicken und ihn zu belästigen.

Ob diese Bilder echt waren oder nicht, ist unklar - ihre E-Mail-Adresse war jedenfalls auch auf einer Liste kompromittierter Accounts zu lesen. Der Hashtag Suskigate ging rum . Die Bilder der Politikerin hängen fest im Netz. Das Ziel, größtmögliche Verwirrung zu stiften, zu destabilisieren - das ist geglückt.

Und all das ist das Werk von Ghostwriter.

ZSP Gielewska "Ich heiße Anna Gielewska, ich bin Investigativ-Chefin bei Reporter’s Foundation und VSquare. Meine journalistischen Themen sind Desinformationskampagnen und Propaganda"

Anna Gielewska verfolgt den Ghostwriter-Skandal schon lange. Dabei ist es gar nicht so einfach zu sagen "DAS ist Ghostwriter”. Es geht nicht nur um Falschmeldungen, es geht nicht nur ums Hacken, nicht nur ums Leaken, sondern es ist ein Zusammenspiel verschiedenster Methoden.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 39

ZSP Gielewska "Wenn wir von Ghostwriter sprechen, dann meinen wir in der Regel eine Vielzahl von Angriffen mit unterschiedlichen Tools und verschiedene Arten von Angriffen. Es ist eine große Cyber-Spionage- Operation. Die beinhaltet Phishing und Desinformationskampagnen. In Polen trifft das hauptsächlich Politiker und Politikerinnen der Regierungspartei PiS, aber auch die Lokalpolitik ist betroffen."

Wie Anna Gielewska eigentlich zum Thema Ghostwriter gekommen ist, zeigt schön, wie umfassend die Attacke ist. Im April 2020 - also mehr als ein Jahr vor dem Telegram-Kanal mit den Mails vom Kanzleramtsminister - wird auf der Webseite der Polnischen Militärakademie ein gefälschter Brief veröffentlicht. Der Präsident der Akademie, die man am ehesten mit der Universität der Bundeswehr vergleichen könnte, rief in dem gefälschten Brief dazu auf, dass Soldaten gegen die Nato rebellieren sollten. Anna Gielewska hört von dieser Story und denkt sich nichts weiter dabei - eine Hacking- Geschichte unter vielen. Als dann aber im Herbst 2020 die Social-Media-Accounts von polnischen Politikerinnen und Politikern gehackt werden, denkt sie: Moment mal. Vielleicht sind das nicht einzelne Attacken. Vielleicht gehört das alles zusammen.

ZSP Gielewska "Wir haben uns das mal genauer angeschaut und dabei herausgefunden, dass es eine massive Phishing-Kampagne in Polen gibt. Im März haben wir dann den ersten Report veröffentlicht, in dem wir versucht haben die polnische Bevölkerung zu warnen: Knapp 1000 E-Mails wurden vermutlich angegriffen, in mehreren hundert könnte der Einbruch geglückt sein."

Passiert ist nach der Warnung übrigens… nichts. Erst als die Mails des Kanzleramtsministers veröffentlicht wurden, haben die Menschen in Polen zugehört. Inzwischen haben sich auch andere Institutionen wie das Stanford Internet Observatory oder die Sicherheitsfirma Mandiant den Fall in Polen angesehen und kommen zu dem Schluss: Vermutlich läuft die Attacke schon seit 2017.

ZSP Żaryn "Yes, we’re ready."

ZSP Żaryn "Stanisław Żaryn - I'm a spokesperson of Spokesperson of the Minister-Special Services Coordinator. I'm responsible for the information policy of the Secret Service community in Poland."

Stanisław Żaryn ist der Pressesprecher der polnischen Geheimdienste. Er sagt offen: die Attacke kommt aus Russland. Er kennt die falschen Schlagzeilen über die Nato, den Hashtag Suskigate, die geleakten E-Mails von Michal Dworczyk.

Als aller erstes wollen wir deshalb auch von ihm wissen: Wer oder was ist Ghostwriter?

ZSP Żaryn Die Ghostwriter-Kampagne ist eine langfristige und breit angelegte Operation der russischen Geheimdienste gegen Polen, gegen die baltischen Staaten -- und gegen Deutschland.

PAUSE

Woher die polnische Geheimdienste wissen, dass Russland hinter Ghostwriter steckt? Attribuieren - also zuschreiben - heißt das im Fachjargon der Spione.

ZSP Żaryn "Naja.. die Beweise, die der polnische Geheimdienst gesammelt hat, sind vertraulich. Deshalb kann ich leider keine Details erzählen. Aber wir haben unsere Erkenntnisse mit unseren Verbündeten der Nato geteilt. Mit denen kommunizieren wir recht offen. Aber leider kann ich darüber nicht öffentlich sprechen."

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 40

Da wird dann auch Stanisław Żaryn schmallippig: Die von der polnischen Spionageabwehr gesammelten Beweise sind vertraulich, sagt er. Er kann und darf nicht über Details sprechen. Er habe keine Befugnis. Kein Kommentar.

Und ganz lange geht uns das in der Recherche immer wieder… Niemand will so wirklich reden...bis wir bei ihm hier durchkommen.

ZSP Kramer "Mein Name ist Stephan Kramer. Ich bin seit 2015 Präsident des Amtes für Verfassungsschutz in Thüringen und leite diese Behörde."

Mit dem Zug geht es nach Erfurt. Das Landesamt für Verfassungsschutz von Thüringen hat hier seine Büros, großer grauer Klotz, acht Stockwerke, Parkplätze. An der Straßenlaterne davor hängen Wahlplakate der CDU und der SPD. Früher wurde hier an Mikroelektronik geforscht. Um zum Chef des Thüringer Nachrichtendienst zu gelangen, muss der der Ausweis gezeigt und das Handy abgeben werden. Und drinnen ist es dann so amtlich, dass an den Desinfektion-Spendern darauf hingewiesen wird, sie zu nutzen, aber danach "am Ort der Bereitstellung stehen zu lassen". Und, klar, es gilt: Maske an.

ZSP Kramer "Wir hatten Fälle in Thüringen im überschaubaren Maße, aber es waren auch Thüringer und Thüringer Politikerinnen und Politiker betroffen."

Auch Politikerinnen aus Thüringen haben Phishing-E-Mails in Zuge der Operation Ghostwriter erhalten. Und woher stammen die E-Mails? Wo sitzt Ghostwriter?

ZSP Kramer "Schauen Sie, Ghostwriter ist seit einiger Zeit jetzt bekannt. Es ist uns im Verfassungsschutzverbund, aber auch mit BSI, also dem Bundesamt für Sicherheit in der Information, aber auch anderen Sicherheitsbehörden gelungen. Und da muss ich sagen wir weniger jetzt lokal, sondern das sind eher unsere Kolleginnen und Kollegen auf Bundesebene, die da auch technisch ganz anders aufgestellt sind. Also es ist uns gemeinsam gelungen, in der Tat festzustellen, dass nicht wenige der Ursprungs Ressourcen sich in Russland finden. In der Tat ist es so, dass wir hinter diesem Phänomen Ressourcen in Russland nicht nur vermuten, sondern teilweise auch belegen können."

PAUSE

Russland. Was hat Russland davon? Und warum gerade jetzt, geht es um die Bundestagswahl Ende September?

ZSP Kramer "Um diese Frage zu beantworten, müsste ich oder versetze ich mich einfach in die Rolle derjenigen, die auf der anderen Seite sitzen, um Ghostwriter einzusetzen. Und gebe noch eine Prise Fantasie dazu und vielleicht noch eine Prise an Ideen, die einem aus dem klassischen Bereich der Spionage, Destabilisierung und Desinformation in den letzten Jahren schon begegnet sind. Ich gehe davon aus, dass wir in den letzten, in den nächsten vier Wochen bis zum Wahltermin noch sehr vorsichtig, sehr aufmerksam sein müssen und sehr genau hinschauen müssen, wenn neue Skandale vermeintlich das Licht der Öffentlichkeit erblicken. Ob es dann wirklich Skandale sind oder ob es nicht fabrizierte Propaganda ist bzw. ob diese Dinge nicht möglicherweise genau aus diesem Ghostwriter-Aktionen noch hervorkommen"

Um das nochmal zu betonen. Nachdem uns wochenlang niemand was zu Ghostwriter erzählen wollte, sagt uns jetzt der Chef des thüringischen Verfassungsschutzes: Es könnte gut sein, dass Ghostwriter

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 41 vor der Wahl zuschlägt.

Ob das die Wahl in die ein odere andere Richtung drehen würde, ist unklar. Übrigens ist der echte Einfluss von Desinformation auf Wahlausgänge in der Wissenschaft noch größtenteils unerforscht. Denn dafür bräuchte man Vergleichsdaten, eine Grundlage, wie Wählerinnen und Wähler ohne die Desinformation abgestimmt hätten. Und in die Köpfe von Menschen reinzuschauen, das ist schwer.

Aber was klar ist: Desinformation kann das Umfeld im Vorfeld einer Wahl beeinflussen. Oder wie Stephan Kramer sagt:

ZSP Kramer "Ziel ist destabilisieren, verunsichern, Angst verbreiten, Wut verbreiten, gesellschaftliche Gruppen gegeneinander oder gegen Einzelpersonen aufzuhetzen."

ATMO/PAUSE

ZSP Kramer "Ich will es nochmal deutlich sagen, das sind nicht irgendwelche Verrückten, die sich ausgedacht haben, sowas zu tun, sondern es sind in der Regel staatliche Institutionen dieser Länder, die diese Maßnahmen ganz gezielt einsetzen, um damit auch eine politische, militärische oder andere Strategie zu verfolgen. Also wir sollen nicht so naiv sein zu glauben: "Ach ja, die können ja gar nichts dafür”, sondern das sind irgendwelche Leute, die sich das ausgedacht haben, irgendwelche Gangster, die damit nur irgendetwas erringen wollen, sondern das sind ganz gezielte Maßnahmen, die in ihrer Art und Umfang auch nur durch staatliche und mit staatlicher Unterstützung eingesetzt werden können. In einer neuen Form von Krieg, der geführt wird. Also hier geht es gar nicht mal mehr darum, dass Soldatinnen und Soldaten auf dem Schlachtfeld mit dem Gewehr rumlaufen, sondern hier wird eine Form von Kriegsführung genutzt, um andere Gesellschaften zu destabilisieren, um politische Systeme umzuwälzen, um z.B. internationale Allianzen aufzubrechen,"

PAUSE

24:57 An dieser Stelle muss ich mal kurz die Stopp-Taste drücken. Weil hier sind jetzt ein paar Begriffe gefallen. Zuerst mal die Einordnung: Stephan Kramer ist der Präsident des Thüringischen Verfassungsschutz. Wenn er hier also von einer Form von Kriegsführung spricht, merkt man daran auch eine sicherheitspolitische Sicht auf Desinformation.

Ok, das war der einfache Teil. Denn wenn wir schon bei Begrifflichkeiten sind, können wir gerade noch klären, was wir meinen, wenn wir Desinformation sagen. Denn andere hätten vielleicht dazu "Fake News” gesagt. Oder "Misinformation”, also Falschinformation.

Um hier ein bisschen weiterzukommen, müssen wir kurz die Definitionen checken. Was meinen wir, wenn wir "Desinformation” sagen. Wir benutzen in diesem Podcast die Definition der Forscherin Claire Wardle. Die macht nämlich drei große Kategorien auf, wenn es um Lügen im Netz geht.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 42 1. Misinformation - Falschinformation

Unter Misinformation fällt alles, was falsch ist, aber nicht in böser Absicht erstellt wurde. Zum Beispiel geht kurz nach dem Hochwasser im Juli 2021 ein Video rum, das eine zerstörte Wuppertaler Talsperre zeigen soll. 30.000 Menschen sehen das Video in den ersten Tagen allein bei Telegram. Dabei ist dort nicht die Talsperre in Wuppertal zu sehen, sondern der Tagebau in Inden in NRW - 100 Kilometer entfernt.

Falschinformation verbreitet sich in einer unübersichtlichen Lage rasend schnell - aber natürlich nie in böser Absicht.

2. Disinformation - Desinformation

Bei der Desinformation kommt dann die böse Absicht dazu. Andere Menschen sollen bewusst getäuscht werden, um Personen, Organisationen oder sogar Staaten zu schaden. Gerade im Wahlkampf sehen wir natürlich recht viel klassische Desinformation. Virale Posts legen Grünen-Fraktionschef falsche Zitate in den Mund - er wolle den "Ossis das Wahlrecht entziehen” oder den Deutschen das Grillen verbieten . Und auch Armin Laschet wurde zum Ziel: Nach der Flutkatastrophe hieß es, der gemeinnützige Verein "Aktion Lichtblicke” würde das für die Flutopfer gesammelte Geld - 6,6 Millionen Euro - komplett an Armin Laschet spenden.

Und dann fehlt laut Claire Wardle nur noch eine Kategorie:

3. Malinformation

Ein Begriff, der leider keine schöne deutsche Übersetzung hat, aber ein ganz breites Spektrum abgreift. Wardle fasst unter Malinformation alles, was zwar wahr ist, aber trotzdem schaden soll. Das sind die echten Mails, die in der Telegram-Gruppe in Polen veröffentlicht wurden. Oder wenn die privaten Daten von Promis einfach geleakt werden - Fachbegriff Doxxing.

26:48 Damit man mit der Wahrheit schaden kann, braucht es aber noch etwas. Eine ausreichende Polarisierung. Erst dann geht die ungute Saat so richtig auf. Der Pressesprecher des polnischen Geheimdienstes Stanisław Żaryn beobachtet, wie sich die Sprechchöre im Netz zusammenfinden. Wie Journalistinnen über das berichten, was auf Telegram veröffentlicht wird; über das, was halb Twitter bespricht, über die Meldungen und Hashtags, die es morgens auf die Titelseiten der Zeitungen schaffen und abends in die Nachrichtensendungen im Fernsehen, sich sonntags an Stammtischen niederlassen, und so die Grenzen des Virtuellen passieren.

ZSP Żaryn "Die Russen benutzen die aktuelle Nachrichtenlage, zum Beispiel gesellschaftliche Konflikte rund um LGBT-Themen oder Abtreibung. Die benutzt Russland gegen uns."

ZSP Gielewska "Polen ist fruchtbarer Boden für Desinformationskampagnen, denn das Ausmaß an Polarisierung ist sehr hoch. Ich denke, es gibt keine einzige Wahrheit, auf die sich Opposition und Regierung einigen können."

Gesellschaftliche Streitigkeiten würden von Russland sehr oft dazu benutzt, Spannungen zwischen den Menschen in Polen zu schüren, befinden Stanisław Żaryn und Anna Gielewska. Und in Polen wird gestritten: über Pressefreiheit; über das Recht auf Schwangerschaftsabbrüche; über Rechte für die LGBTQ+; über Freiheiten, die katholischen Traditionen und konservativen Lebensansichten entgegenstehen. Ghostwriter wirkt wie ein Verstärker. Zum Beispiel, wenn die Hacker im Dezember 2020 das Facebook- Konto von Polens Frauenministerin Marlena Malag hacken, um dort üble Beschimpfungen auf die

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 43

Frauen loszuwerden, die für mehr Gleichberechtigung auf die Straße gehen.

PAUSE

Fassen wir zusammen. Ghostwriter hat verschiedene Vorgehensweisen. Zentral ist dabei aber immer der Hack - man verschafft sich Zugriff auf fremde Webseiten, E-Mail-Accounts oder Social-Media- Accounts und greift dort nicht nur Daten ab. Sondern man benutzt diese Accounts dann auch, um eigene Informationen zu streuen - zum Beispiel wie bei der polnischen Militärakademie, die zur Rebellion gegen die Nato aufruft.

Zum Redaktionsschluss wissen wir nur, dass Ghostwriter in Deutschland arbeitet. Einen Leak haben wir noch nicht gesehen. Aber, es gibt dann doch jemandem, dem genau sowas schon mal passiert ist.

29:50 ZSP Ankommen Wuppertal Alt: "So, ich bin jetzt endlich in Wuppertal angekommen. Heute ist der 11. August. Der Wahlkampf hat vor ein paar Tagen angefangen. Überall hängen schon die Plakate. Auch hab ich schon gesehen."

ZSP läuft weiter als BETT Das ist mein Kollege Christian Alt. Er ist in Wuppertal, um Helge Lindh zu besuchen. Lindh sitzt seit 2017 für die SPD im Bundestag. Er engagiert sich vor allem in der Flüchtlingspolitik, und hat zum Beispiel auch ein Schiff der Sea Watch im Mittelmeer besucht. Im Frühjahr 2018 verliert Helge Lindh die Kontrolle über sein E-Mail-Postfach, über seine Profile bei Facebook und Twitter.

ZSP Lindh Alt: "So genau das Mikro läuft schon mal alles."

Lindh: "Herr Alt, Sagen Sie doch mal etwas über das Büro hier. Das haben wir doch eben besprochen"

Alt: "Ich werde gezwungen zu erwähnen, wie schön das Büro ist. Es ist. Es ist sehr ansprechend, aber es ist wirklich ganz cool. Es ist eine alte Kneipe, in der wir hier sind. Und zwar wurde die umgebaut…"

Helge Lindhs Büro ist wie er selbst. Die umgebaute Stehkneipe in der Wuppertaler Innenstadt ist irgendwie urig, irgendwie exzentrisch, aber dann auch irgendwie cool. Der Bundestagsabgeordnete wird seit Beginn der Legislaturperiode 2017 scharf angegriffen. Und zwar aus verschiedenen politischen Richtungen. Im April 2020 gab es einen Anschlag gegen das Wahlkreisbüro, in dem wir gerade das Interview machen. Unbekannte warfen mehrere Backsteine an die Tür und durchs Fenster. Kurz darauf wurde ein Bekennerschreiben aus dem linksextremen Spektrum veröffentlicht : Die Angreiferinnen und Angreifer wollten damit auf Lindhs Engagement für Geflüchtete aufmerksam machen, das ihnen nicht weit genug ging. Ein Engagement, für die Lindh auch viel Gegenwind von konservativen und rechten Kräften bekommt .

ZSP Lindh "Also ich hab jetzt nicht nur dieses Hacking Doxing 18/19 erlebt, sondern hab eine beeindruckende Biographie als Zielscheibe von Hass. Werde auch deswegen von Hate Aid schon seit einiger Zeit betreut. Weil bei mir wirklich massenhaft - man kann es nur so umschreiben - massenhaft per Email, per Kommentaren auf meine eigenen Social-Media-Accounts, aber auch auf Plattformen - Tichys Einblick, PI News, Achse des Guten Deutschland Kurier, Junge Freiheit und so weiter und so fort. Dann Artikel und auch entsprechende Entgleisungen, Enthemmungen in den Kommentarspalten erfolgen. Und in diesem Rahmen, also im Rahmen dieser Hasskultur, Hasspost findet auch Desinformation statt."

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 44

Über diese Art von Desinformation, die Helge Lindh begegnet, sprechen wir in der nächsten Folge noch. Aber wir sind ja hier, um mit ihm über die Hack-and-Leak-Operation zu sprechen, die sich auf seinen Konten im März 2018 abspielte. Das genaue Datum weiß er zwar nicht mehr, aber…

ZSP Lindh "Ich kann die Uhrzeit sehr präzise definieren, weil ich noch genau weiß, in welchem Zimmer ich saß. Und es war kurz nach 21 Uhr."

Ich war bei einer Freundin, wir waren da, saßen zusammen bei bei ihr Zuhause, als das einschlug, als diese digitale Bombe buchstäblich den Abend in Unruhe versetzte und zerschoss, zerstörte.

Mein Mitarbeiter rief mich an und nahezu zeitgleich bekam ich ein oder zwei WhatsApp-Nachrichten mit dem Hinweis, da gerät etwas außer Kontrolle: Was ist da los bzw. was hast du denn da gerade gepostet? Das kann doch nicht wahr sein. "Rapefugees welcome? bist du das wirklich?” Also die haben sich aufgrund eines Postes sehr irritiert gezeigt und nahezu simultan meldete sich mein Mitarbeiter und sagte: Da stimmt was nicht. Offensichtlich sind wir gehackt worden. Jemand hat was gepostet und ich komme auch in die Accounts nicht rein. Und das ging dann so kaskadenartig: fing bei einem an, Facebook. Dann meldete er: Insta geht nicht und check mal womöglich ist auch E-Mail und sonstiges nicht mehr verfügbar und wir kommen nicht mehr rein. Das war innerhalb von wenigen Minuten"

In nur wenigen Minuten ist alles weg. Selbst die Kreditkarte konnte erbeutet werden, denn ein paar Tage später wird mit dieser ein Amazon-Paket bezahlt und an Lindh geschickt. Darin: ein Kothaufen aus Plastik, Theaterblut, ein Koran und künstlicher Urin . Helge Lindh war aus seinem digitalen Leben ausgesperrt.

ZSP Lindh "Das konnten wir nicht entschärfen. Es ging einfach nicht, weil wir keinen Zugriff erhielten. Also in dem Abend war es. Schlicht unmöglich auch korrektiv etwas zu posten, weil andere darüber verfügten."

Alt: "Wissen Sie noch, wann Sie an dem Abend oder in der Nacht ins Bett gegangen sind? Wie?"

Lindh: "Oh, ich glaub, ich habe ganz wenig geschlafen. 2, 3 Uhr vielleicht. Dann ging es ja noch um die ganzen Schritte und man hatte noch überlegt und nun gesucht nach Hotlines. Wie erreicht man jetzt diese amerikanischen Betreiber? Wie macht man das? Kann man noch irgendwas selbst unternehmen? Was folgt womöglich noch daraus? Ich musste meine Eltern auch noch beruhigen. Also das hat einen ganzen Rattenschwanz natürlich an Folgen nach sich gezogen, die weiteren Tage und machte dann natürlich auch im Kopf. Dann nächste Woche Sitzungswoche. Was machst du dann? Wie gehen wir damit um? Und womöglich auch schon da, zu diesem Zeitpunkt: Werden dann auch noch Dritte in Mitleidenschaft gezogen? Also nicht nur du selbst, sondern andere. Wen muss man jetzt informieren?"

Genau wie bei Ghostwriter in Polen geht es nicht nur um die eigenen Daten. Es geht auch um Daten von Dritten, die sich auf den eigenen Online-Konten befinden. Im Fall von Helge Lindh sind das Telefonnummern, E-Mails und Adressen von Geflüchteten, denen er geholfen hat.

ZSP Lindh "Ganz schnell kam auch die Nachricht der Polizei. Wir müssen dann entsprechende Leute, deren Daten und Konten womöglich mitbetroffen sind, auch informieren. Und das spielt man dann durch. Wen musst du jetzt informieren? Was löst das für Aufregung aus? Werden die stinksauer sein? Was machen die mit ihr? Das ist dann eher meine Sorge, dass da Leute unter Druck gesetzt werden könnten oder was ja, passiert ist das angerufen wird z.B. bei syrischen Geflüchteten, die von einem vermeintlichen Journalisten gefragt werden, ob ich den Personen Vorteile verschafft hätte. Es gäbe da Indizien für, also dass ich sozusagen illegal Leute ins Land geholt hätte oder unterstützt hätte. Sowas besteht aufgrund des Datenmaterials, was damals der Fall war."

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 45

Wer genau Helge Lindh damals im März 2018 gehackt hat, das ist bis heute nicht komplett klar. Es gibt allerdings einen starken Verdacht.

ZSP Lindh "Also bis zum heutigen Tag sind nie Sicherheitsbehörden auf mich zugekommen, haben gesagt, es war dieser oder jener Täter oder muss mutmaßlich dieser oder jener Täter. Mir wurde über Journalisten, über Journalisten, die dann auch den Prozess gegen Johannes S. verfolgt haben, dass man wohl davon ausginge, dass er es selbst war und dass ich zu den ganz früh Betroffenen gehörte"

Der Fall 0rbit. Im Dezember 2018, also neun Monate nach dem Angriff auf Helge Lindh, werden in einem Adventskalender private Daten von Personen aus der Politik geleakt. , Jan Böhmermann, Robert Habeck oder die Landtagsabgeordnete Eva von Angern. Die privaten Daten von bis zu 1500 Menschen wurden im Internet veröffentlicht - oder um den Fachbegriff zu benutzen - 1000 Menschen wurden gedoxxt. Anfang Januar 2019 dann eine Hausdurchsuchung in Hessen. Der damals 19-jährige Johannes S. soll die Daten zusammengetragen und veröffentlicht haben, im September 2020 wird der geständige Täter zu neun Monaten Jugendstrafe verurteilt. Ob er jetzt auch Helge Lindh gehackt hat - oder die Daten von woanders hat, ist nicht klar. Gedoxxt wurden vor allem jene, die sich für Geflüchtete engagiert haben - AfD-Politikerinnen und Politiker fehlten völlig. Das Gericht war jedoch nicht der Ansicht, dass in Leaks von Johannes S. eine klare politische Position zu erkennen war.

ZSP Lindh Alt: "Wie lang hatte das alles gedauert, bis sie da ihre Konten wieder zurück hatten?"

Lindh: "Unterschiedlich mehrere Tage. Es gingen bei Twitter relativ schnell, also so ungefähr vielleicht ein Tag Twitter, Instagram. Bei Facebook war es so dann, dass man auch bis zu den Abteilungen und Repräsentanzen in Berlin gehen musste. Also normale Hotlines und sowas waren hoffnungs und aussichtslos, sodass dann bei Facebook so war, dass das dann geblockt werden konnte, stillgelegt wurde, aber dann nochmal enteignet wurde. Also dass ist es zwar offensichtlich Facebook nicht gelungen, diesen Zugriff wirklich wasserdicht zu machen, sodass es dann nochmal sichtbar wurde, dass da jemand drauf Zugriff hatte und das Passwort geändert hatte. Bis dann endgültig diese Fremd- Aneignung und dieses Hacking beendet war. Bei meinem E-Mail-Konto dauerte es mehrere Wochen. Es dauerte mehrere Wochen. Ich habe surreale Telefonate mit irgendwelchen Hotlines, die mir die Identität nicht glaubten, also die ernsthaft die Position vertraten: "Da sind Sie nicht. Jemand anders ist das. Wir haben keinen Grund zu glauben, dass Sie Sie sind.” Bis dann mit vielen Schreiben und auch mit der Kontaktaufnahme zu einem Anwalt. Dieses Unternehmen in Deutschland vertrat endlich Bewegung in die Sache kam."

Ob das heute schneller gehen würde, ist unklar. Immerhin hat Facebook eine automatisierte Hotline eingerichtet, an die sich Politikerinnen und Politiker wenden können - dann wird ihr Fall schneller bearbeitet.

MINI-PAUSE

Die meisten auf Facebook haben natürlich sofort gemerkt, dass der echte Helge Lindh nicht " Rapefugees welcome” posten würde. Seine Facebook-Freunde posteten Dinge wie:

ZSP Lindh "Das kann doch nicht sein. Da stimmt doch was nicht. Also wiederholt die Reaktion Du musst gehackt worden sein und nicht bist du jetzt unter die Rechtspopulisten und Rechtsextreme gegangen."

Versiertere Angreifer hätten vielleicht unter das echte Material noch Lügen gemischt, Lindh Fehltritte unterstellt, Daten gefälscht. Aber auch so war der Hack ein entscheidender Moment in Lindhs Leben,

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 46 der ihn bis heute nicht loslässt.

ZSP Lindh "Denn sowas wie ein Hacking und Doxing ist ja vergleichbar mit dem Einbruch in eine Wohnung und Leute, die man Wohnungseinbruch erlebt haben. Ich habe das bei meinen Nachbarn in Jugend erfahren, waren bis zum Ende ihres Lebens davon betroffen, weil das ein höchst. In tiefer Eingriff in ihr Leben, den sie nie vergessen konnten. Im Digitalen ist das. Auch wenn das dann so abstrakt wird, genauso konkret ist, es ist genauso erschütternd und genauso persönlich."

PAUSE

40:45 ZSP ATMO PK Der 6. September 2021. Kurz vor unserem Redaktionsschluss. Andrea Sasse, die Sprecherin des Auswärtigen Amtes sitzt in der Bundespressekonferenz.

ZSP Sasse "Der Bundesregierung liegen verlässliche Erkenntnisse vor, aufgrund derer die Ghostwriter-Aktivitäten Cyberakteuren des russischen Staates und konkret dem russischen Militärgeheimdienst GRU zugeordnet werden können. Die Bundesregierung betrachtet dieses inakzeptable Vorgehen als Gefahr für die Sicherheit der BRD und für den demokratischen Willensbildungsprozess. Und als schwere Belastung für die bilateralen Beziehungen."

Nach monatelangem Schweigen jetzt endlich eine Erklärung. Die Bundesregierung sagt ganz klar, dass Russland hinter den Angriffen steckt. Inzwischen hat sogar der Generalbundesanwalt ein Ermittlungsverfahren eröffnet. Die Tagesschau berichtet, dass die Hackingversuche Ende August noch einmal deutlich zugenommen haben sollten, einige waren wohl erfolgreich. Das russische Außenministerium bestreitet die Vorwürfe: "Unsere Partner in Deutschland haben gar keine Beweise für eine Beteiligung der Russischen Föderation an diesen Attacken vorgelegt"

Fest steht nur, dass wir bisher vermutlich noch keinen Ghostwriter-Leak in Deutschland gesehen haben. Das Szenario, dass Geheimdienste und das Auswärtige Amt beunruhigt, es ist bisher noch nicht eingetreten.

Aber… dass ausländische Akteure Desinformation verbreiten, ist ja nur eine Dimension des Problems. Eine Dimension, die das Außenministerium beschäftigt und die Geheimdienste.

Im Inland sehen wir ganz organisch jede Menge Desinformation. Lügen, mit denen sich auch Politiker wie Helge Lindh tagtäglich rumschlagen müssen. Er lebt in Wuppertal, eine Stadt, die im Juli von einer großen Flutkatastrophe erwischt wurde. Und in diesem Zusammenhang gabs natürlich auch Desinformation.

ZSP Lindh "Da gabs ein Bild von mir bei Facebook. Dann hatte ich einen Sandsack in der Hand, den ich aber real hatte, weil ich da an einem Einsatzort war mit dem THW. Und ich hatte in meine normale Klamotten von diesem Tag an: Jeans und Hemd und meine weißen Sneakers, die ich, wie Sie jetzt gerade bezeugen können, wie Sie vor mir sitzen, ich regelmäßig trage. Und dann wurde verbreitet: Das hat ja alles nur inszeniert oder dann später auch bei weiteren Post, der hilft gar nicht. Das ist alles nur Erfindung, Show und so weiter und so fort. Ich habe aber erlebt, dass ich vor Ort in Wuppertal- Beyenburg, wo ich fast jeden Tag bin und versuche, mein Möglichstes zu tun, also einerseits mit Beratung, Unterstützung, aber auch mit buchstäblichem Anpacken. Dass mich dann eine Frau ansprach, die selbst Betroffene war und dann behauptete Sie sind doch der, der gar nicht anpackt, sondern der da pseudomäßig nur inszeniert mit dem Sandsack war. Sie war, das muss man sich vor Augen führen, selbst eine Betroffene, laß aber wie mir andere erzählten, schon seit langer Zeit vornehmlich entsprechende Seiten auf Facebook und anderen Plattformen und hat daraus ihr Wissen

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 47 bezogen. Das heißt, diese digitale Realität, das was ihr da vorgekaut wurde, war für sie realer als das real Erlebte. Das finde ich bemerkenswert."

Auch das gehört zur Geschichte: Für die Betroffenen ist es egal, ob die Desinformation von einem staatlichen Akteur kommt oder von Privatleuten. Lügen im Netz sind nun mal Lügen im Netz.

Diese Lügen wirken wie Nadelstiche. Eine einzige Lüge führt nicht dazu, dass anders gewählt wird. Aber das Wahlumfeld, das kann schon beeinflusst werden. Und das ist besonders kritisch, wenn wir an eine Sache denken:

ZSP Capitol Riots 2

44:17 Die Briefwahl.

Darum gehts in der nächsten Folge. Während wir uns in dieser Folge um Desinformation aus dem Ausland gekümmert haben, gehts nächste Mal um Lügen aus dem Inland. Denn auch in Deutschland wird seit Monaten die Legitimität der Briefwahl angezweifelt.

Das war die erste Folge von "Netz aus Lügen - die globale Macht der Desinformation”.

Diese Folge wurde geschrieben von Christian Alt, Sylke Gruhnwald und Jochen Dreier. Redaktion BPB: Marion Bacher. Audio-Produktion: Simone Hundrieser. Fact-Checking: Karolin Schwarz. Produktionshilfe: Lena Kohlwees.

"Netz aus Lügen - die globale Macht der Desinformation” ist ein Podcast der Bundeszentrale für politische Bildung, produziert von Kugel und Niere. Ich bin Ann-Kathrin Büüsker und wenn ihr Feedback zu dieser Folge habt, schreibt uns doch unter [email protected]. Bis nächstes Mal.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 48

Impressum

21.9.2021

Herausgeber: Bundeszentrale für politische Bildung/bpb, Bonn

Verantwortlich gemäß §§ 18 MSTV: Thorsten Schilling

Redaktion: Marion Bacher

Host: Ann-Kathrin Büüsker

Faktencheck: Karolin Schwarz

Produktion: Kugel und Niere

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 49

Was ist Digitale Desinformation

2.5.2019

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 50

Desinformation: Vom Kalten Krieg zum Informationszeitalter

Von Matthias Schulze 2.5.2019 ist wissenschaftlicher Mitarbeiter bei der Stiftung Wissenschaft und Politik im Bereich Cyber-Sicherheitspolitik. Er betreibt zudem den Percepticon Podcast zu ähnlichen Themen. [email protected].

Heutige Debatten vermitteln oftmals den Eindruck, dass Desinformation und Debatten über "Fake News" neue Phänomene seien. Moderne Desinformationskampagnen greifen aber bereits etablierte Verfahren auf und ergänzen diese um die neuen Möglichkeiten, die sich durch das Internet ergeben.

Desinformation ist eine Art von Propaganda, bei der der Urheber einer Nachricht im Verborgenen bleibt, weshalb hier auch von "schwarzer Propaganda" gesprochen wird. Unter "weißer Propaganda" werden in der Regel Werbung und Public Relations verstanden. Im Unterschied zu Fehlinformation, die oftmals auf unabsichtlichen Fehlern oder Ignoranz basiert, ist Desinformation absichtlich irreführend, verfolgt also eine Agenda. Desinformation ist in einigen Staaten eine aktive Maßnahme der Außenpolitik, um die öffentliche Meinung in anderen Staaten positiv oder negativ zu beeinflussen. Desinformation hat das Ziel, positive Bedeutungsinhalte und innerhalb von Gesellschaften geltende Wahrheiten und Glaubenssätze zu (zer)stören. Desinformation beschränkt sich dabei nicht nur auf Politiker, sondern kann Institutionen, Organisationen und ganze Länder betreffen. Oftmals ist es das Ziel, die Legitimität von Institutionen oder Personen zu untergraben, die insbesondere in mehrheitsbasierten, demokratischen Herrschaftssystemen von zentraler Bedeutung sind. Desinformation zielt auf die Willensbildung in öffentlichen Diskursen. Durch das Stören dieser soll politische Apathie und Politikverdrossenheit erzeugt werden. Die Philosophin Hannah Arendt hat in ihrer Analyse totalitärer Herrschaft bereits gut dargelegt, dass der massenhafte Einsatz von Lüge und Halbwahrheiten dazu führt, dass die Bevölkerung ein gemeinsames Konzept von Wahrheit verliert, was Orientierungslosigkeit und konstanten Zweifel erzeugt.[1] Als politisches Ziel verfolgt Desinformation als aktive Maßnahme den "teile und herrsche" Ansatz: der gesellschaftliche Zusammenhalt soll gebrochen werden, damit Gesellschaften in voneinander isolierte Splittergruppen zerfallen.

Desinformation im Kalten Krieg

Heutige Debatten vermitteln oftmals den Eindruck, dass Desinformation und Debatten über "Fake News" beziehungsweise ein post-faktisches Zeitalter neue Phänomene seien. Allerdings haben viele der Phänomene der Desinformation, die sich heute studieren lassen, ihren intellektuellen Ursprung in den Aktivitäten des sowjetischen Geheimdienstes KGB im Kalten Krieg.[2] Am Anfang des sogenannten Desinformationszyklus des KGB steht die Analyse des Zielpublikums hinsichtlich ihrer Sorgen, Ängste, gesellschaftlicher Konfliktlinien und dominanter Diskurse. Große gesellschaftliche Spannungsereignisse wie die Brexit-Abstimmung 2016 eignen sich hervorragend, um sie mit Desinformation anzuheizen. Desinformation zielt bewusst darauf ab, bereits existierende gesellschaftliche Spaltungslinien (zum Beispiel Debatten um Migration und Staatsbürgerschaft) zu verstärken. Im zweiten Schritt wurden Ideen generiert, mit welchen Narrativen man diese Konfliktlinien anheizen könnte und welche Ziele besonders empfänglich dafür sind. Danach wird Desinformationsmaterial entwickelt, zum Beispiel gefälschte Dokumente, die eine bestimmte Narration nahelegen, Verschwörungstheorien oder Gerüchte. Danach wird dieses Material verdeckt veröffentlicht, etwa durch gekaufte oder bestochene Medienorganisationen in Drittländern oder durch die Nutzung von "unwitting Agents". Das sind

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 51

Personen, die an sie weitergegebene, etwa geleakte, Fälschungen unhinterfragt weiterverbreiten. Das Ende des Desinformationszyklus ist erreicht, wenn die Falschinformation durch Medien oder unkritische Journalisten als Fürsprecher in nationalen Diskursen verankert wird. Durch das Senden der Falschinformation in als legitim erachteten Medien, wird der Botschaft Glaubwürdigkeit verliehen und diese an ein großes Zielpublikum verbreitet (Amplifikation).

Wirkungsweise von Desinformation

Desinformation als aktive Maßnahme nutzt geschickt menschliche und gesellschaftliche Schwachstellen, wie die Verfügbarkeitsheuristik aus: wir halten eine Information für wahr, wenn wir ihr häufiger begegnen.[3] Deshalb führt die langfristige Wiederholung (https://www.psychologytoday.com/ us/blog/the-new-resilience/201612/new-research-shows-why-people-believe-false-information) dazu, dass eine falsche Information sich verfestigt. Die Neurolinguistik zeigt, dass Fact-checking eine Lüge also nicht wiederholen darf, wenn es wirkungsvoll sein will. Anfällig für Desinformation sind insbesondere Ziele mit starken ideologischen Ausprägungen oder Menschen, die von sich selbst glauben, nicht für Desinformation anfällig zu sein. Adressiert man an diese etwa Verschwörungstheorien, die ihr Weltbild bestätigen, werden diese weniger hinterfragt ("confirmation bias").

Eine Taktik ist der "verrottete Hering”. Dabei werden im Internet oder in Boulevardmedien anonyme Gerüchte über eine Person verbreitet, in denen es um Missbrauchs-, Korruptionsskandale oder Affären geht. Der negative "Geruch" dieser Geschichten soll sinnbildlich an der Zielperson hängen bleiben. Insbesondere sensationsgetriebene Boulevardmedien, ohne kritische Quellenprüfungsprozesse, wie die doppelte Verifikation einer Information, sind dafür anfällig. Skandale generieren Auflage oder Clicks. Dabei spielt es keine Rolle, ob eine Information wahr oder falsch ist. Es greift daher zu kurz, Desinformation mit Falschinformation gleichzusetzen. Hochwertige Desinformation basiert häufig auf wahren Prämissen, die etwa aus dem Kontext gerissen werden oder zu suggestiven Schlussfolgerungen verbunden werden.

Das systematische Verbreiten von Verschwörungstheorien ist eine gut erforschte Taktik von Desinformation. Dabei werden zur Erklärung eines komplexen Sachverhalts massenhaft divergierende, teils widersprüchliche Theorien lanciert, sodass einem Zielpublikum am Ende nicht mehr klar ist, was faktisch richtig und was frei erfunden ist. Es geht also darum, die Aufmerksamkeit von der Wahrheit abzulenken. Dieser "firehose of falsehood” Ansatz führt dazu, dass die diskursiven Wasser sinnbildlich getrübt werden, dass keiner mehr den Durchblick hat. Gut erforscht ist diese Strategie im Kontext des Abschusses des malaysischen Flugzeugs MH 117 (https://www. technologyreview.com/s/604084/russian-disinformation-technology/) durch eine russische Bug- Rakete über dem Gebiet der Ost-Ukraine.

Der KGB operierte unter der Annahme, dass Desinformation vermutlich kurzfristig nicht wirke oder sogar leicht enttarnt werden kann.[4] Die langfristige Wiederholung führe allerdings zu einer kumulativen Verfestigung von Narrativen.[5] In der Wissenschaft scheint der bestehende Konsens zu sein, dass Konsumenten von Desinformation sich bewusst auf diese einlassen müssen. Desinformation überzeugt in der Regel niemanden, der fest anderer Meinung ist, sondern wirkt eher bei jenen vorurteilsbestärkend (https://qz.com/978548/introducing-our-obsession-with-propaganda/), welche die grundsätzliche Auffassung der Desinformation teilen. Empfänglich sind insbesondere Menschen mit ohnehin großem Misstrauen gegenüber Medien-, dem politischen oder dem Wissenschaft-System, welche etwa als gekauft oder korrumpiert wahrgenommen werden. Desinformation wirkt tendenziell auch besser bei Menschen mit geringer Medienkompetenz und jenen, die nur wenige, oder homogene Medien konsumieren und kein diverses Bild der Nachrichtenlandschaft bekommen.[6]

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 52 Desinformation im Informationszeitalter

Moderne Desinformationskampagnen greifen bereits etablierte Verfahren auf und ergänzen diese um die neuen Möglichkeiten, die sich durch das Internet ergeben. Das meint die einfacher gewordene, globale Verbreitbarkeit von Information durch soziale Netzwerke und Blogs sowie die desinformationskompatiblen Geschäftsmodelle von Internetplattformen. Die datenbasierten Geschäftsmodelle von Facebook, Twitter, Amazon und Google basieren darauf, Nutzern jene Inhalte anzuzeigen, die sie mögen. Die Aufmerksamkeit der Nutzer soll auf den Plattformen gebunden ((https:// www.ted.com/talks/zeynep_tufekci_we_re_building_a_dystopia_just_to_make_people_click_on_ads/ transcript) werden, damit ihnen mehr Produktwerbung angezeigt werden kann, mit der diese Unternehmen ihr Geld verdienen . Verschwörungstheorien, Skandale und sensationalistische Inhalte führen nachweislich dazu, dass Nutzer länger auf diesen Plattformen verweilen und folglich durch mehr Klicks ("clickbait") über Werbung Gewinn generieren. Ein weiteres Problem ist "micro-targeting", also dass Nutzern von Werbetreibenden gezielt Werbung vorgeschaltet werden kann, die zum psychologischen Profil und den Interessen des Nutzers passt. Desinformation kann somit individualisiert und automatisiert werden. Insbesondere der Skandal um Cambridge Analytica (https:// www.cnbc.com/2018/04/10/facebook-cambridge-analytica-a-timeline-of-the-data-hijacking-scandal.html) im US Wahlkampf 2016 verdeutlicht dies.

Durch die große Reichweite kann Desinformation über Twitter, Facebook und Blogs schnell millionenfach verbreitet werden und ein globales Publikum erreichen. Durch automatisierte Bots oder angeheuerte Kommentarschreiber (Troll-Armeen) kann versucht werden, Online-Diskurse zu beeinflussen. Dabei wird Desinformation demokratisiert: sie wird auch zunehmend von nicht- staatlichen Akteuren wie rechten Gruppierungen verwendet. Die Urheberschaft einer Information kann oftmals aufgrund technischer Faktoren nur schwer nachgewiesen werden.

Verstärkt werden diese Trends durch die Veränderungen im Medienverhalten. Traditionelle Medien agieren heute nicht mehr als Gatekeeper, die relevante von nicht-relevanter Information trennen. Die Kostenloskultur des Internets hat Anteil daran, dass Nutzer es nicht mehr gewohnt sind, für qualitativ hochwertige Inhalte zu bezahlen. Ökonomischer Druck führt dazu, dass an der Qualität gespart wird. Einige Medienhäuser setzen aktiv auf Clickbait-Strategien, um Nutzer auf Online-Nachrichtenseiten zu ziehen und ihnen dort ebenfalls Werbung anzuzeigen. Der Trend zu immer schnelleren Nachrichtenzyklen führt zudem dazu, dass die Qualitätskontrolle sinkt. Auch wenn Fehler später korrigiert werden, kriegen nur die wenigsten Nutzer dies mit. Dieser Trend ist langfristig problematisch: Die Forschung (https://www.psychologytoday.com/us/blog/the-new-resilience/201612/new-research- shows-why-people-believe-false-information) zeigt, dass Menschen ungenauen Informationen aus einer glaubwürdigen Quelle eher glauben als aus einer unzuverlässigen Quelle. Unzufriedenheit mit dem Mediensystem führt langfristig dazu, dass Leser sich aktiv alternative Medienangebote suchen und somit auch bei ausländischen Propagandaoutlets oder polarisierenden Blogs landen können. Wer vorwiegend Nachrichten über algorithmisch aggregierte Newsfeeds auf sozialen Medien konsumiert, hat häufig ein negativeres Politikbild als etwa Leser von Zeitungen, die ausgewogener berichten.[7]

Da Desinformation nur an bereits vorhandenen menschlichen Schwachstellen und Defiziten ansetzen kann, gilt es, diese elementaren Probleme langfristig zu beheben. Kurzfristige "quick fixes", wie die Bekämpfung von Desinformation durch Upload-Filter oder Systeme künstlicher Intelligenz (KI), sollten kritisch betrachtet werden. KI ist sehr schlecht darin, Grauzonen wie Satire, aus dem Kontext gerissene Zitate oder suggestive Desinformation zu erkennen. Der Politikwissenschaftler Marc Galeott (https:// www.ecfr.eu/publications/summary/controlling_chaos_how_russia_manages_its_political_war_in_europe) i argumentiert, dass Desinformation wie Regen sei. Der Versuch, den Regen stoppen zu wollen, ist sinnlos. Stattdessen muss dafür gesorgt werden, dass dieser nicht die Fundamente des eigenen Hauses weiter auflöse. Dies kann langfristig nur durch eine Anpassung des politischen, des Medien- und des Bildungs-Systems an die Erfordernisse des Informationszeitalters bewerkstelligt werden.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 53

Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/ de/ (http://creativecommons.org/licenses/by-nc-nd/3.0/de/) Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc- nd/3.0/de/ Autor: Matthias Schulze für bpb.de

Fußnoten

1. Vgl. Arendt, Hannah: Elemente und Ursprünge totaler Herrschaft. Frankfurt a.M. 1955. 2. Vgl. Bittman, Ladislav: The KGB and Soviet Disinformation. An Insiders View. Washington 1985. 3. Vgl. Kahneman, Daniel: Thinking, fast and slow. New York 2011, S. 129-136. 4. Vgl. Bittman, Ladislav: The KGB and Soviet Disinformation. An Insider’s View. Washington 1985, S. 55-57. 5. Vgl. Paul, Christopher/Matthews, Miriam: The Russian "Firehose of Falsehood” Propaganda Model: Why It Might Work and Options to Counter It. RAND Corporation 2016 (PDF (https://www. rand.org/content/dam/rand/pubs/perspectives/PE100/PE198/RAND_PE198.pdf)). 6. Vgl. Sängerlaub, Andreas: Feuerwehr ohne Wasser? Möglichkeiten und Grenzen des Fact- Checkings als Mittel gegen Desinformation. Stiftung Neue Verantwortung 2018 (PDF (https://www. stiftung-nv.de/sites/default/files/grenzen_und_moeglichkeiten_fact_checking.pdf)). 7. Vgl. Ceron, Andrea: Internet, News, and Political Trust: The Difference Between Social Media and Online Media Outlets. In: Journal of Computer-Mediated Communication, 20, 2015 S. 487-503 (PDF (https://onlinelibrary.wiley.com/doi/pdf/10.1111/jcc4.12129)).

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 54

Von der Aufmerksamkeits-Ökonomie zur desinformierten Gesellschaft?

Von Stephan Russ-Mohl 2.5.2019 war bis 2018 Professor für Journalistik und Medienmanagement an der Universita` della Svizzera italiana in Lugano/Schweiz und leitete das European Journalism Observatory. Er ist unter anderem Autor von "Die informierte Gesellschaft und ihre Feinde. Warum die Digitalisierung unsere Demokratie gefährdet."

Die Desinformations-Flut in den Medien, Suchmaschinen und sozialen Netzwerken lässt sich als Ergebnis einer medienökonomischen Entwicklung verstehen. Verantwortlich für eine Verbesserung der Situation sind aber nicht nur die Plattformen, sondern auch das Publikum und die Politik. Warum Europa "Allianzen für die Aufklärung" braucht.

Internetangebote zur Europawahl von bpb.de und tagesschau.de. Lizenz: cc by/3.0/de (CC, Stefan Lampe für bpb.de) Je abstruser die Lügengeschichten, desto mehr Anklang finden sie oftmals in den virtuellen Resonanzräumen. Leider geht es nicht nur um Falschnachrichten und auch nicht um journalistische Übertreibungen. Frei erfundene Infamie, Viertelwahrheiten, Konspirationstheorien, Hassbotschaften, Propaganda – kurz: Desinformation ist zur Pest der digitalisierten Medien und damit auch zu einer ernsten Bedrohung unserer Demokratie geworden. Wir müssen uns der Herausforderung stellen, wie sich mentale Umweltverschmutzung eindämmen lässt.

Zwei Trends, die sich überlagern, haben dazu geführt, dass wir es mit einer ganz anderen, neuen Dimension des Problems zu tun haben. Der erste, der Vertrauensverlust der Medien, war bereits in den 1990er Jahren beobachtbar: In Deutschland hatten die öffentlich-rechtlichen Fernsehsender Mitte

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 55 der 1960er Jahre begonnen, in Mehrjahresabständen messen zu lassen, wie das Publikum die Glaubwürdigkeit von Medienberichterstattung wahrnimmt. Die ermittelten Werte in dieser " Langzeitstudie Massenkommunikation (https://meedia.de/2017/01/25/studie-vertrauen-in-die-medien- steigt-massiv-an-das-misstrauen-aber-ebenso/)" zeigten schon damals regelmäßig nach unten. Je nachdem, welcher Umfrage man sich in der Gegenwart bedient, geht es weiter in den Keller, oder die Werte haben sich auf erschreckend niedrigem Niveau stabilisiert.

Die Übermacht der Public Relations

Der langfristige Glaubwürdigkeitsverlust dürfte damit zu tun haben, wie Journalismus über Jahrzehnte hinweg von Public Relations umgarnt, durchdrungen und usurpiert wurde. 1998 präsentierte der österreichische Sozialforscher und Ökonom Georg Franck sein Konzept der "Aufmerksamkeitsökonomie "[1]. Er zeichnete nach, wie Institutionen, aber auch Prominente, Politiker und CEOs immer mehr nach Präsenz in der Öffentlichkeit gieren. Diese wachsende Konkurrenz um Publizität hat den öffentlichen Diskurs verändert. Weil Aufmerksamkeit knapp ist und sich in Geld oder Macht ummünzen lässt, wurde und wird immer mehr investiert, um sie zu generieren.

Zugleich sank die Bereitschaft der Mediennutzer, für Journalismus zu bezahlen, so dass viele Redaktionen drastisch schrumpften. In Amerika steht den Journalisten inzwischen eine fünf- bis sechsfache Übermacht an PR-Experten (https://muckrack.com/blog/2018/09/06/there-are-now-more- than-6-pr-pros-for-every-journalist) gegenüber. Für den deutschsprachigen Raum fehlen Vergleichszahlen, aber es ist kaum zu bezweifeln, dass eine ähnliche Kräfte- und Machtverschiebung auch bei uns stattfindet. Zunehmende Konkurrenz um Aufmerksamkeit allein reicht allerdings nicht aus, um zu erklären, weshalb sich die Aufmerksamkeits- zur Desinformationsökonomie weiterentwickelt. Es muss sich vielmehr für eine Vielzahl von Akteuren machtpolitisch oder wirtschaftlich lohnen, durch Falschmeldungen Aufmerksamkeit zu erzielen – und das mitunter so massiv, dass Wahrheitsfindungsversuche von Journalisten und Wissenschaftlern ins Hintertreffen geraten.

Desinformation durch Digitalisierung

Genau dies wurde mit dem zweiten Trend innerhalb kürzester Zeit erreicht: Suchmaschinen und soziale Netzwerke haben sich in atemberaubendem Tempo ausgebreitet. Facebook, YouTube und andere Plattformbetreiber behandeln "Content" erst einmal trotz gegenteiliger Beteuerungen gleich – egal ob er stimmt oder nicht, Hauptsache, er erzielt Clicks und taugt, um im Beipack Werbebotschaften zu lancieren. Zugleich beraubten die neuen IT-Giganten die Mainstream-Medienunternehmen ihrer lukrativsten Erlösquelle, der Werbeeinnahmen, weil sie die Zielgruppen der Werbetreibenden ohne Streuverluste erreichen können.

Mit den sozialen Netzwerken und Suchmaschinen konnten sich Falschnachrichten im Journalismus viral verbreiten. Donald Trump betreibt ohne Rücksicht auf Kollateralschäden Direktkommunikation mit seiner Gefolgschaft über Twitter, und er findet mit seinem neuen "Erfolgsmodell" politischer Kommunikation weltweit Nachahmer. Es sind indes nicht nur Populisten, welche die Möglichkeiten virtuos nutzen, sogenannte "alternative Fakten" zu setzen. Wer "Likes" und "Shares" generieren möchte, um in der virtuellen Welt Stimmung zu machen, benötigt dazu auch keine "Troll-Fabriken (https://www.nytimes.com/2016/05/31/world/europe/russia-finland-nato-trolls.html?_r=0)" mehr, wie sie in St. Petersburg offensichtlich für den Kreml arbeiten. Billiger ist der Einsatz von Text-Robotern, sogenannten Social Bots. Sie können in sozialen Netzwerken bestimmte Meldungen "pushen" und ihre eigenen Kommentare tausendfach variieren.

Die großen Plattformbetreiber kolonisieren obendrein die Mainstream-Nachrichtenlieferanten. So verteilen Google mit der "Digital News Initiative" und neuerdings Facebook mit seinem "Journalism Project" nicht nur Geld unter Medienhäusern und binden sie auf diese Weise an sich. Die Geldgeber verschaffen sich so auch dank ihrer Ausschreibungen Jahr für Jahr auf geniale Weise einen Überblick, was gerade wo bis in die hintersten Winkel Europas in der digitalen Start up-Szene läuft – und wen

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 56 sie demnächst aufkaufen müssen, um das eigene Geschäftsmodell nicht zu gefährden.

Gegenwehr

Was lässt sich unter diesen Umständen tun? Ob und wie sich die Desinformations-Epidemie wirksam bekämpfen lässt, wissen wir derzeit noch nicht – wirksame "Impfstoffe" müssen erst gefunden werden. Immerhin ist in letzter Zeit einiges in Bewegung geraten: Im deutschen Sprachraum überprüft das Journalismus-Start up "Correctiv" Facebook-Postings, um der Wahrheit auf die Sprünge zu helfen. Eines der profitabelsten IT- und Medienunternehmen betreibt also Outsourcing seiner "Corporate Social Responsibility", statt sich selbst um die von ihm verursachten gesellschaftlichen Probleme zu kümmern. Diskutiert sowie da und dort auch umgesetzt wird vermehrte Faktenüberprüfung außerhalb von herkömmlichen Redaktionen. Forscher des Reuters Institute in Oxford zählten 2016 weltweit 113 Factchecking-Websites (https://reutersinstitute.politics.ox.ac.uk/our-research/rise-fact-checking-sites- europe#overlay-context=); rund 50 von ihnen sind in Europa beheimatet, und ebenfalls circa 50 sind allein in den zwei Jahren zuvor entstanden.

Aber lässt sich damit genügend Resonanz erzielen? Gerade besonders absurde Nachrichten und Verschwörungstheorien verbreiten sich mitunter erst dann viral, wenn es Bemühungen gibt, sie als solche zu enttarnen. Weitere Forschungen belegen überdies, wie sehr die Echokammern im Netz gegeneinander abgeschirmt sind. Ein italienisch-amerikanisches Forscherteam hat in den USA und in Italien Facebook-Accounts verglichen – solche, die sich redlich um wissenschaftlich oder journalistisch geprüfte Information bemühen, und Linkschleudern, die Unsinn offerieren. Die beunruhigende Erkenntnis: In den sozialen Netzwerken verbreitet sich schrille Desinformation oft weitaus schneller und flächendeckender als die Nachrichten seriöser Anbieter.[2]

Als weiteren Vorschlag zur Bekämpfung der Epidemie forderte der Publizist Milsocz Matuschek mehr " Bullshiterkennungskompetenz (https://www.nzz.ch/meinung/kolumnen/framing-lob-der-urteilskraft- ld.137217)", sprich: mehr Medienkunde an Schulen. Dafür braucht es allerdings absehbar Jahre. Es wäre ja erst einmal den Lehrern beizubringen, was selbst hochspezialisierte Medienforscher derzeit sich nur mühselig und partiell an gesichertem Basiswissen anzueignen vermögen.

Ein Teil der medienpädagogischen Initiativen sollte aus verstärkten Aktivitäten der Medien selbst bestehen. Die Medienbranche hat weithin den "C"-Bereich vernachlässigt: Wenn man die Entwicklung umkehren und journalistische Glaubwürdigkeit zurückgewinnen möchte, ist und bleibt es essentiell, Fehler zu korrigieren ("Correction Policies"), sich um Beschwerden über die Berichterstattung zu kümmern ("Complaints Management") und dem Journalismus und den Medien in der Medienberichterstattung mindestens genauso viel Aufmerksamkeit zu widmen ("Coverage of Media by the Media") wie dem sonstigen Kulturbetrieb.

Europäische Herausforderungen

Letztlich ist nicht nur die Regulierung der IT-Giganten und die Verteidigung unserer Privatsphäre eine europäische Herausforderung. Wenn die EU es ernst meint mit Desinformationsbekämpfung, sollte sie statt über neue Behörden zur Fake-News-Bekämpfung nachzudenken und Millionen in PR zu investieren, den Journalismus fördern. Und zwar in einer Weise, die dessen Unabhängigkeit und Kompetenz steigert, also mit Investitionen in Aus- und Weiterbildung sowie in mediale Infrastrukturen wie Selbstkontrollorgane. Die EU hätte auch aufzupassen, dass der Journalismus – wie in einigen Ländern Ost- und Südeuropas – nicht mehr und mehr von Oligarchen gesteuert wird, die ihrerseits Handlanger und Günstlinge politischer Machthaber sind. Journalistische Stimmenvielfalt und Kritikfähigkeit mutierte so in Ländern wie Ungarn und Polen zu immer mehr propagandistisch-medialem Einheitsbrei.

Gerade weil sich die Journalismus-Kulturen in Europa so krass unterscheiden und weil es bisher keine " europäische Öffentlichkeit” gibt, hätte der öffentlich-rechtliche Rundfunk überall dort, wo er noch nicht

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 57 zum Staatsfunk und Propagandainstrument degeneriert ist, an vorderster Front Desinformation zu bekämpfen sowie durch entsprechende mehrsprachig ausgestrahlte Nachrichten- und Programmangebote dem europäischen Projekt neue Schubkraft zu verleihen. Wie man das macht, lässt sich vom viersprachigen Programm- und Integrationsangebot des öffentlichen Rundfunks in der Schweiz lernen.

Wir haben uns von den wunderbaren Scheinbar-Gratis-Offerten der IT-Giganten längst existentiell abhängig gemacht. Wegzudenken sind sie aus unserem Leben nicht mehr. Aber etwas verantwortungsvoller umgehen mit den sozialen Medien könnte jeder von uns schon. Wir sollten selbst prüfen, bevor wir impulsiv etwas "liken", wir sollten vorsichtiger teilen – und vor allem uns unseres eigenen "Confirmation Bias" bewusst werden, der dazu führt, dass wir Nachrichten bevorzugen, die unsere Vorurteile bestätigen. Und wir sollten uns bewusst sein, dass die Algorithmen uns so bedienen, dass wir uns in unserer Filterblase möglichst wohl fühlen, um so möglichst lange im jeweiligen sozialen Netzwerk zu verweilen. Vielleicht sollten wir einfach in unseren "Freundeskreis" ein paar Leute aufnehmen, die nicht die eigenen Überzeugungen teilen.

Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/ de/ (http://creativecommons.org/licenses/by-nc-nd/3.0/de/) Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc- nd/3.0/de/ Autor: Stephan Russ-Mohl für bpb.de

Fußnoten

1. Franck, Georg: Ökonomie der Aufmerksamkeit. Ein Entwurf. München 1998. 2. Vgl. Del Vicario, Michala et al.: The spreading of misinformation online. In: PNAS, 113 (3), 2016, S. 554-559.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 58

Fake News als aktuelle Desinformation

Von Matthias Kohring , Fabian Zimmermann 2.5.2019 ist Professor für Medien- und Kommunikationswissenschaft am Institut für Medien- und Kommunikationswissenschaft der Universität Mannheim.

ist Akademischer Mitarbeiter am Institut für Medien- und Kommunikationswissenschaft der Universität Mannheim.

Was ist das Neue an Fake News? Kommuniziert werden wissentlich und empirisch falsche Informationen zu Sachverhalten mit dem Anspruch auf Wahrheit. Die Korrektur von Falschmeldungen reicht im Kampf gegen diese Desinformation nicht aus: Es geht darum, das Vertrauen in Politik und Medien wiederherzustellen.

Während des Präsidentschaftswahlkampfes in den USA 2016 lösten einige Nachrichten ungläubiges Staunen aus: Der Papst unterstütze die Kandidatur Donald Trumps (https://www.snopes.com/fact- check/pope-francis-donald-trump-endorsement/). Hillary Clinton führe einen Kinderpornoring, getarnt als Pizzeria (https://www.bbc.com/news/blogs-trending-38156985). Auch im Bundestagswahlkampf 2017 gab es brisante Meldungen: habe mit einem islamistischen Attentäter auf einem Selfie (https://www.mimikama.at/allgemein/merkel-selfie-mit-bruessel-terrorist-null-recherche-und- ueble-hetze/) posiert. Der Vater von Martin Schulz (https://www.anonymousnews.ru/2017/01/27/ aufgedeckt-vater-von-spd-kanzlerkandidat-martin-schulz-liquidierte-im-kz-mauthausen/) sei ein KZ- Aufseher gewesen. "Fake News" wurden solche "Nachrichten" bald genannt, falsche Informationen im Gewand echter Nachrichten. Schon bald instrumentalisierten aber Politiker den Begriff, um ihnen unliebsame Berichterstattung zu diskreditieren. Aus diesem Grund sprechen wir stattdessen von "aktueller Desinformation".[1]

Das Phänomen aktueller Desinformation ist an sich nicht neu – immer schon hat sich Propaganda falscher Tatsachenbehauptungen für ihre Zwecke bedient. Der Aufwand war früher allerdings vergleichsweise hoch und die Verbreitung begrenzt. Nun aber ermöglichen es digitale und hier vor allem die sozialen Medien wie Facebook oder Twitter, falsche Informationen zu aktuellen politischen Themen in kürzester Zeit massenhaft zu verbreiten. Das ist eine neue Qualität. Aktuelle Desinformationen untergraben, so die Befürchtung, die Möglichkeit eines legitimen Meinungs- und Willensbildungsprozesses auf Basis korrekter Informationen. Mehr noch: Der Gesellschaft scheine zunehmend die Fähigkeit abhanden zu kommen, sich bei aller Meinungsverschiedenheit wenigstens auf gültige Fakten einigen zu können: Diese Befürchtungen sind nicht unberechtigt, sie haben aber, wie wir gleich zeigen, gar nicht in allererster Linie etwas mit "falsch" oder "wahr" zu tun.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 59 Die Merkmale aktueller Desinformation

Will man die Auswirkungen von aktueller Desinformation auf zum Beispiel Wahlen analysieren, sollte man eine sehr genaue Vorstellung davon haben, was man eigentlich untersuchen will. Wie schon am Namen ersichtlich, reden wir von einem Untertypus von Desinformation.[2] Wenn wir im Folgenden dessen Merkmale aufzählen, nehmen wir die komfortable Position eines Beobachters ein, der über genügend Zeit und Wissen verfügt, aktuelle Desinformation auch tatsächlich zu identifizieren. Deren Gefahr liegt aber natürlich vor allem darin, dass Mediennutzer sie nicht als solche erkennen.

Das Besondere dieses Typs von Desinformation liegt in seinem Aktualitätsbezug. Damit ist gemeint, dass sowohl der Neuigkeitswert einer Information behauptet wird als auch deren gesellschaftliche Wichtigkeit. Aktuelle Desinformation tut also so, als sei sie ganz normaler Journalismus. Sie simuliert, dass sie dem Bürger genauso wie eine journalistische Nachricht dabei hilft, sich in einer komplexen Gesellschaft zu orientieren. Wie selbstverständlich erhebt sie daher auch einen Wahrheitsanspruch für ihre Faktendarstellung. Da aktuelle Desinformation zudem die Darstellungsweisen des Journalismus übernimmt, um ihre Glaubwürdigkeit zu steigern, kann man sie von einer journalistischen Nachricht im Prinzip nicht unterscheiden – denn dass sie falsch ist, kann man ihr ja nicht unmittelbar ansehen. Falsch ist die aktuelle Desinformation nämlich immer. Ihr irreführendes Potential kann sie nur entfalten, wenn sie tatsächlich unzutreffende Tatsachenbehauptungen aufstellt.

Bis jetzt trifft unsere Definition auch auf einen bloßen journalistischen Irrtum zu. Die aktuelle Desinformation ist zusätzlich aber auch unwahrhaftig, das heißt sie wird im Wissen um ihre Falschheit in Umlauf gebracht. Eine mögliche Irreführung der Nutzer erfolgt somit nicht unbewusst, sondern wissentlich. Dabei ist keineswegs vorausgesetzt, dass aktuelle Desinformation direkt von einem unwahrhaftigen Kommunikator bezogen wird. Wissentlich in die Welt gesetzte Falschmeldungen werden auch von Menschen weiterverbreitet, die irrtümlicherweise von deren Wahrheit ausgehen. Aufgrund ihres Ursprungs betrachten wir sie aber weiterhin als aktuelle Desinformation.

Damit können wir aktuelle Desinformation als Kommunikation wissentlich und empirisch falscher Informationen zu neuen und relevanten Sachverhalten mit dem Anspruch auf Wahrheit definieren. Was sicherlich überrascht: Aktuelle Desinformation ist nicht notwendigerweise mit der Absicht zu täuschen verknüpft. Dies trifft nur auf propagandistische Desinformation zu, deren Urheber die Vorstellungen der Menschen manipulieren wollen, um ihre politischen Ziele zu erreichen.[3] Sogenannte Clickbait-Desinformationen bedienen sich dagegen falscher Informationen nur, um Werbeeinnahmen zu erzielen. Die reißerischen Überschriften solcher Angebote dienen als Köder (bait), um die Neugier der Mediennutzer zu wecken und für Aufmerksamkeit in Form von Clicks und damit klingende Münze zu sorgen. Ob diese Falschmeldungen geglaubt werden oder nicht, ist den Produzenten gleichgültig. Die Wirkung dagegen ist potenziell dieselbe wie die von propagandistischer Desinformation.

Aktuelle Desinformation und die Desinformationsordnung

Die öffentliche Debatte um aktuelle Desinformation dreht sich zumeist um die problematische Verbreitung von offensichtlichen Unwahrheiten. Aus dieser Problemsicht geht es zuvorderst darum, der Wahrheit wieder zu ihrem Recht zu verhelfen. So überprüfen Faktenchecker dubiose Nachrichten im Netz, bewerten ihren Wahrheitsgehalt und korrigieren sie. Diese Maßnahme ist auf den ersten Blick plausibel, scheint aber kaum geeignet, das eigentliche Problem zu lösen, mit dem wir es zu tun haben.

Das Problem liegt dabei weniger in den Urhebern von politischer Desinformation, die es immer geben wird. Es besteht vielmehr darin, dass aktuelle Desinformationen von nicht wenigen Menschen geglaubt werden. Wie kann man sich das erklären? Die Antwort lautet: Aktuelle Desinformationen werden vor allem deshalb für wahr gehalten, weil sie einer gänzlich anderen Sicht auf unsere Gesellschaft und deren Institutionen wie Politik, Wissenschaft und Medien entsprechen. Es geht hier mithin gar nicht um die übliche Unterscheidung von wahr und falsch – es geht vielmehr allein darum , ob eine Informationsquelle als vertrauenswürdig oder eben nicht vertrauenswürdig angesehen wird.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 60

Um das nachzuvollziehen, lohnt ein Perspektivenwechsel. Aus der Sicht normaler MediennutzerInnen sehen aktuelle Desinformationen genauso aus wie journalistische Nachrichten: Keiner Information kann man ansehen, ob sie falsch oder richtig ist – auch nicht der Nachricht aus der Tageszeitung. Dass man diese dennoch glaubt, hat mit Vertrauen zu tun. Um unseren Alltag zu meistern, verlassen wir uns auf ExpertInnen und gehen davon aus, dass diese kompetent und aufrichtig genug sind, um unsere Erwartungen zu erfüllen. Ohne dieses Vertrauen wären wir schlicht aufgeschmissen, denn wirklich wissen können wir nicht, ob die Diagnose der Ärztin zutrifft, die Kinder in der Kita gut aufgehoben sind, die journalistische Information wirklich relevante Orientierung bietet. Der Trick beim Vertrauen ist: Wir kompensieren unser mangelndes Wissen in diesen Bereichen durch das Wissen über deren Vertreter: die ÄrztInnen, die ErzieherInnen, die Presse usw. usf. Auf die Nachrichtenmedien bezogen heißt das also: Wir halten eine Nachricht vor allem deshalb für wahr, weil wir dem Urheber dieser Nachricht vertrauen – nicht, weil sie wahr ist.

Was aber passiert, wenn dieses Vertrauen schwindet, gar in Misstrauen umkippt? Dann wenden sich die Menschen von den vormaligen ExpertInnen ab und suchen nach Alternativen. Wenn sie den etablierten Nachrichtenmedien nicht mehr vertrauen, gehen sie ins Netz und suchen dort nach Informationen, die ihnen eine andere Art der Orientierung bieten. Schon allein der Umstand, dass diese der Sicht der traditionellen Medien widersprechen, erhöht dann die Wahrscheinlichkeit, dass sie geglaubt werden. Wenn die Bürger der Politik nicht mehr vertrauen, suchen sie auch im politischen Bereich nach Alternativen. Informationen, die ihre skeptische Sicht auf die etablierten Parteien bestätigen, werden dann schon allein deshalb eher geglaubt. In beiden Fällen profitieren die Urheber aktueller Desinformation also von schwindendem oder gar verlorenem Vertrauen in gesellschaftliche Institutionen wie Politik und Medien. Wäre das Vertrauen bei allen BürgerInnen weiterhin hoch, hätte aktuelle Desinformation deutlich weniger Chancen.

Die Gegner der Demokratie machen sich genau diesen Vertrauensverlust demokratischer Institutionen zunutze und versuchen, ihn systematisch zu befördern. Aktuelle Desinformation ist dabei nur eines ihrer Instrumente. Manche Autoren sprechen sogar von einer regelrechten Desinformationsordnung.[4] Die Urheber dieser Desinformationsordnung halten sich nicht mit dem Streit um Fakten auf, ihnen geht es um nicht weniger als einen Gegenentwurf zur gegenwärtigen demokratischen Ordnung. Etwas sehr Ähnliches meint der Begriff des postfaktischen Zeitalters.[5] Was man daraus lernen kann, ist zum Ersten, dass es gar nicht primär um den Wahrheitsgrad von Informationen geht, sondern um eine alternative Weltsicht, die sich den üblichen Kriterien der Beweisführung entzieht. Zum Zweiten geht es auch nicht um Einzelaussagen, sondern um ganze Narrative, miteinander verknüpfte Aussagen und Bewertungen, die zusammen eine ganz andere Sichtweise verkörpern. In Deutschland, wie in den meisten Ländern, liegt diesen Narrativen zumeist rechtes Gedankengut zugrunde. So werfen aktuelle Desinformationen ein schlechtes Licht auf Migranten und forcieren die (angeblich) negativen Folgen der Flüchtlingssituation.[6]

Was (nicht) zu tun ist

Wir verkennen die Brisanz des Problems, wenn wir uns auf die Korrektur einzelner falscher Fakten fokussieren. Es geht vielmehr darum nachzuvollziehen, warum ein gewisser Teil der Bevölkerung Politik und Medien das Vertrauen weitgehend entzogen hat (in Deutschland sind das etwa 20 Prozent der Bevölkerung[7]) und sich deshalb vermehrt alternativen Informationsquellen zuwendet – darunter eben auch aktueller Desinformation. Man sollte das Problem nicht unterschätzen: Zwar zeigen Studien, dass der durchschnittliche Kontakt mit aktueller Desinformation (noch) eher gering ist. Gleichzeitig weiß man aber aus den USA, dass bestimmte Bevölkerungsgruppen (zum Beispiel Konservative und Ältere) einen intensiveren Kontakt haben.[8]

Es scheint eine unzureichende Lösung, auf aktuelle Desinformation bloß mit Richtigstellungen zu reagieren. Diejenigen, die auf diese "alternativen Fakten" anspringen, erreicht man damit erst gar nicht. Sie würden diese Korrekturen ohnehin nicht glauben, da die Faktenchecker sich aus den gleichen

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 61

Institutionen rekrutieren, denen sie mit großer Skepsis oder gar Misstrauen begegnen. Medienkompetenz scheint einen gewissen Schutz gegen Desinformation zu gewährleisten. Der Schlüssel aber, um den Einfluss von Desinformation zurückzudrängen, liegt darin, das verlorene Institutionenvertrauen wiederherzustellen. Dafür müssen sich Politik und Medien auch auf die Debatte einlassen, inwiefern die Gründe des Vertrauensverlusts mitverantwortet sind und ob sie mehr als bisher tun müssten, um Vertrauen zurückzugewinnen.

Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/ de/ (http://creativecommons.org/licenses/by-nc-nd/3.0/de/) Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc- nd/3.0/de/ Autoren: Matthias Kohring, Fabian Zimmermann für bpb.de

Fußnoten

1. Vgl. Zimmermann, F./Kohring, M.: "Fake News” als aktuelle Desinformation. Systematische Bestimmung eines heterogenen Begriffs. In: Medien & Kommunikationswissenschaft, 66, 2018, S. 526-541. 2. Vgl. Jowett, G. S./O’Donnell, V.: Propaganda and persuasion. Los Angeles 2012 (5. Aufl.), S. 24. 3. Vgl. Jowett, G. S./O’Donnell, V.: Propaganda and persuasion. Los Angeles 2012 (5. Aufl.), S. 24. 4. Vgl. Bennett, W. L./Livingston, S.: The disinformation order: Disruptive communication and the decline of democratic institutions. In: European Journal of Communication, 33, 2018, S. 122-139. 5. Vgl. Lewandowsky, S./Ecker, U. K. H./ Cook, J.: Beyond misinformation: Understanding and coping with the ‘post-truth’ era. In: Journal of Applied Research in Memory and Cognition, 6, 2017, S. 353-369 und Harsin, J.: Regimes of posttruth, postpolitics, and attention economies. In: Communication, Culture & Critique, 8, 2015, S. 327-333. 6. Vgl. Humprecht, E.: Where ‘fake news’ flourishes: A comparison across four Western democracies. In: Information, Communication & Society, 21, 2018, S. 1-16. 7. Vgl. z. B. Bayerischer Rundfunk: Informationen fürs Leben: BR-Studie zum Vertrauen in die Medien. München 2.5.2016 und Ziegele, M./Schultz, T./Jackob, N./Granow, V./Quiring, O./Schemer, C.: Lügenpresse-Hysterie ebbt ab: Mainzer Langzeitstudie "Medienvertrauen". In: Media Perspektiven, Nr. 4, 2018, S. 150-162. 8. Grinberg, N./Joseph, K./Friedland, L./Swire-Thompson, B./Lazar, D.: Fake news on Twitter during the 2016 U.S. presidential election. In: Science, 363, 2019, S. 374–378.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 62

Propaganda 4.0 von Europas Rechtspopulisten

Von Johannes Hillje 2.5.2019 ist selbstständiger Politik- und Kommunikationsberater in Berlin und Brüssel. Er berät Institutionen, Parteien, Politiker, Unternehmen und NGOs. Zur Europawahl 2014 arbeitete er als Wahlkampfmanager der Europäischen Grünen Partei. Zuvor war er im Kommunikationsbereich der UN in New York und in der heute.de- Redaktion des ZDF tätig. Hillje ist Policy Fellow bei der Denkfabrik "Das Progressive Zentrum" in Berlin.

Rechtspopulistische Akteure verfolgen häufig eine spezifische Medienstrategie. Online-Kanäle können dabei als Alternativmedien mit erheblicher Reichweite fungieren. Die Wirkmacht dieser Gegenöffentlichkeit entsteht auch durch die gemeinsame Verbreitung bestimmter Narrative.

Es gibt Ursachen für und Mittel zum Erfolg rechtspopulistischer Kräfte in heutigen westlichen Demokratien. Beides ist untrennbar miteinander verbunden. Der gesellschaftliche Kontext wie etwa Wirtschafts- und Währungskrisen, Migrationsbewegungen oder soziale Ungleichheit sind dabei eine notwendige, aber noch keine hinreichende Bedingung für den Aufstieg von Rechtspopulisten. Erst durch den Einsatz eines organisatorisch-kommunikativen Instrumentariums kann auf Basis der gesellschaftlichen Umstände politische Unterstützung mobilisiert werden. Mit anderen Worten: Der Rechtspopulismus ist nicht allein ein politisches, sondern maßgeblich auch ein kommunikatives Phänomen. Damit ist jedoch nicht gemeint, dass Rechtspopulismus, genauso wie Populismus im Allgemeinen, primär als politischer Kommunikationsstil verstanden werden sollte. Die Definition von Populismus allein als eine vereinfachte, emotionale, bürgernahe Form der Politikvermittlung ignoriert den ideologischen Kern von Populismus. Dieser denkt das Volk als eine homogene Gruppe, die von einer korrupten Eliten und den "Fremden" bedroht wird und einzig und allein durch den Populisten eine Stimme und wahrhaftige Vertretung findet.[1] Dieser "dünne" ideologische Kern ist das zentrale Unterscheidungsmerkmal zu anderen politischen Kräften. Charakteristisch, aber eben nicht determinierend, ist für viele Populisten aber dennoch ein höchsteffektiver Kommunikationsstil, der vereinfacht, emotionalisiert, polarisiert, skandalisiert und damit Menschen mobilisiert und öffentliche Diskurse verändern kann.

Medienstrategie "Propaganda 4.0"

Die Medienstrategie, mittels derer rechtspopulistische Kräfte auch in Europa zu Spitzenverdienern der Aufmerksamkeitsökonomie geworden sind, lässt sich als "Propaganda 4.0" modellieren.[2] Darunter ist ein neuartiger Typ der politischen PR zu verstehen, der seine Wirkmacht durch das integrative Zusammenspiel digitaler und klassischer Kommunikationsformen entfaltet. Die Propaganda 4.0 besteht aus vier Elementen:

Der Delegitimierung der klassischen Medien, der Schaffung digitaler Alternativmedien, der Bildung einer kollektiven Identität mit Hilfe dieser eigenen Digitalkanäle sowie ein zunächst schizophren anmutendes, aber in Wahrheit strategisch-instrumentelles Verhältnis zu journalistischen Massenmedien. Im Folgenden werden zwei dieser vier Bestandteile der rechtspopulistischen Medienstrategie genauer beschrieben: das Netzwerk sogenannter neurechter "Alternativmedien " sowie die Schaffung einer kollektiven Identität unter den Anhängern, die auf der Abgrenzung zu den etablierten Parteien als politischen Repräsentanten und den etablierten Medien als Repräsentations- und Deutungsraum für gesellschaftliche Zustände beruht.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 63 Europäische Gegenöffentlichkeit der Rechtspopulisten

Den Bedarf nach alternativen Informationsquellen in Teilen der Gesellschaft haben rechtspopulistische Kräfte durch die Diskreditierung etablierter Medien selbst mit geschaffen. Wenn die "Lügenpresse " notorisch die Unwahrheit verbreitet, braucht es neue Informationsquellen, die wahrhaftig berichten. Die parteinahen oder parteieigenen Medien treten in Form von eigenständigen Nachrichtenportalen auf oder sie sind auf Plattformen wie Facebook, YouTube, Twitter oder Instagram beheimatet. Die digitale Dominanz der Populisten kann man an den Followerzahlen und Reichweiten ihrer Profile und Seiten ablesen: Der Rassemblement National von Marine Le Pen hat mit 456.000 Facebook-Fans doppelt so viele Fans wie die Regierungspartei "La Republique En Marche!", die Emmanuel Macron ebenfalls mit Hilfe digitaler Medien aufgebaut hat. Geert Wilders hat in den Niederlanden die größte digitale Gefolgschaft (811.000 Twitter-Follower und 309.000 Facebook-Fans), die Fünf-Sterne- Bewegung liegt in Italien mit 1,4 Millionen Facebook-Fans ganz vorne. In Österreich ist die FPÖ mit 120.000 Facebook-Fans führend, in Deutschland die AfD mit 452.000.[3] Gleiches gilt in Polen für die PiS-Partei, für Jobbik in Ungarn und die Finnen-Partei in Finnland. Entscheidend für den Erfolg in sozialen Netzwerken sind allerdings nicht nur die reinen Fan- und Follower-Zahlen, sondern auch die Reichweiten der einzelnen Beiträge, die wiederum von den Interaktionen des Publikums (kommentieren, teilen, liken) abhängen. Auch das haben die Populisten verstanden. Ihre Beiträge sprechen Emotionen an und werden von visuellen Elementen getragen, sie animieren das Publikum zu reagieren, was der Algorithmus mit einer noch größeren Reichweite belohnt.

Der Analysedienst Fanpage Karma (https://blog.fanpagekarma.com/2014/10/27/emotionen-facebook- social-media-interaktionen-reichweite/?lang=de) hat nachgewiesen, dass emotionale Facebook-Posts zehnmal mehr Interaktion bekommen als solche, die unemotional und eher sachlich sind. Aufgezogen wie eine Emotionsmaschine, erreichen beispielsweise die Facebook-Beiträge der AfD regelmäßig Reichweiten im Millionenbereich. Der italienische Innenminister Matteo Salvini ignoriert regelmäßig die ihm hingehaltenen Mikrofone und Kameras, um stattdessen seine Botschaften über seine Facebook-Seite zu verbreiten. Fast täglich streamt er sich live und erreicht damit bis zu 8 Millionen Menschen. "Meine soziale Medien sind größer als die traditionelle Medien", sagt der Vorsitzende der Lega Nord über seine persönliche Gegenöffentlichkeit.[4] Seinen größten Social-Media-Coup landete er 2017 mit einem Video, das verarmte italienische Rentner vermeintlich gut versorgten, undankbaren und gierigen Flüchtlingen gegenüberstellt. 12 Millionen Menschen sahen das Video bis April 2019 auf Facebook.[5] Vorreiter für rechtspopulistische Alternativmedien ist allerdings die FPÖ. Seitdem die Partei Teil der Regierung in Wien ist, haben ihre Minister so manche Gesetze als erstes über Social Media bekanntgeben. Dort gibt es keinen journalistischen Filter, der ihre Aussagen kritisch einordnet. Es geht schließlich um "message control". Rechtspopulistische Parteien verstehen ihre Partei-PR als notwendige Korrektur zu den "verzerrt und z.T. unwahr" informierenden "Alt-Medien".[6] Sie setzen Parteipropaganda an die Stelle von unparteiischen Medien, was dem demokratischen Verständnis von der Rolle unabhängiger Medien als "vierte Gewalt" widerspricht. Medienkritik, möglichst differenziert statt pauschalisiert, ist in der Demokratie unbedingt erwünscht. Aber aus einer wie auch immer geartete Medienkritik abzuleiten, diese Säule der Demokratie durch parteiische Instanzen zu ersetzen, ist im Kern demokratiefeindlich.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 64 Strategische Netzwerke für den "Informationskrieg"

Die Strategie der Populisten geht jedoch auf. Die Skepsis gegenüber den etablierten Medien, vor allem den Öffentlich-rechtlichen, ist in ihrer Wählerschaft überdurchschnittlich stark ausgeprägt. Intensiver als andere Wählergruppen konsumieren sie Nachrichten vornehmlich über soziale Netzwerke. Europaweite Studien haben mittlerweile einen Zusammenhang zwischen der verstärkten Nutzung von Social Media und der Skepsis gegenüber der EU nachgewiesen. Für die Europawahlen 2014 haben die beiden florentinischen Sozialwissenschaftler Lorenzo Mosca und Mario Quaranta belegt, dass Wählerinnen und Wähler, die sich stärker über soziale Netzwerke als über traditionelle Medien informieren, mit höherer Wahrscheinlichkeit europaskeptische Parteien gewählt haben.[7] Gerade jene Parteien, die im EU-Parlament in der rechtspopulistischen Fraktion "Europa der Nationen und der Freiheit" zusammensitzen, tauschen sich regelmäßig über Strategien für den "Informationskrieg" aus. Botschaften und Narrative, die in Österreich (FPÖ) erfolgreich waren, werden in Italien (Lega), Deutschland (AfD) oder Frankreich (RN) adaptiert.[8] Instrumente, mit denen sich Gesellschaften spalten lassen, wie das "Microtargeting" in sozialen Medien, werden durch Erfahrungsaustausch optimiert.[9] So ist vor allem auf strategischer Ebene eine internationale Nationale in Europa entstanden. Allerdings sind es längst nicht die Parteien allein, die soziale Netzwerke zu europaskeptischen und nationalistischen Resonanzräumen gemacht haben. Entstanden ist ein ganzes digitales Ökosystem aus "News" und Aktivismus, das der sogenannten "Neuen Rechten" zugeordnet werden kann. Und diese Akteure handeln durchaus europäisch. Eine Netzwerkanalyse von Forschern der Freien Universität Berlin zeigte, dass es starke Verlinkungen zwischen rechten Alternativmedien wie Journalistenwatch (Deutschland), Ledarsidorna (Schweden), Unzensuriert (Österreich), Spiked (Großbritannien) und 24nyt (Dänemark) gibt.[10] Soll heißen: Sie zitieren sich gegenseitig und verlinken insbesondere über soziale Netzwerke aufeinander. Gruppierungen aus dem politischen Vorfeld wie die "Identitäre Bewegung" – die vor allem in Österreich, Frankreich und Deutschland aktiv ist – koordinieren gemeinsam "virale" Aktionen wie "Defend Europe", bei der unter anderem die Blockade der Seenotrettung von Geflüchteten auf dem Mittelmeer medial wirksam inszeniert wurde. Was diesen unterschiedlichen Akteuren also gelingt, ist die Schaffung einer digitalen Gegenöffentlichkeit, die durchaus transnationale Züge aufweist. Eine europäische Öffentlichkeit des Rechtspopulismus - etwas was der europäischen Demokratie bislang nicht gelungen ist zu schaffen.[11]

Verbreitung gemeinsamer Narrative

Die zentrale Wirkmacht dieses neurechten Mediensystems entsteht auch durch die konzertierte Verbreitung und Wiederholung ganz bestimmter Narrative. Ein besonders beliebtes Narrativ ist jenes von der Bedrohung durch Migration und Islamisierung. Auf zehn populären Facebook-Seiten des neurechten Spektrums in Deutschland, darunter die Seiten der AfD, der Identitären Bewegung, des Compact-Magazins und der Nachrichtenseite "Politically Incorrect" kam dieses Narrativ im Zeitraum von April 2016 bis Februar 2017 853 mal vor.[12] Von einer "Bedrohung von innen", zum Beispiel durch die Eliten, die als "Volksverräter" aktiv Migranten ins Land holten und unerwünschte Meinungen unterdrückten, erzählten 707 Beiträge. Eine wichtige Funktion dieser Narrative ist die Schaffung einer kollektiven Identität unter der Anhängerschaft. Diese Gruppenidentität beruht im Wesentlichen auf der Abgrenzung zu den Eliten, also den etablierten Parteien im Verbund mit den etablierten Medien, die das eigene Volk unterdrücken und gleichzeitig Fremde ins Land holen würden. Das Volk ist demnach Opfer der herrschenden Ordnung. Dieses daraus folgende Gemeinschaftsgefühl lässt sich auf ein zusammenschweißendes "Wir gegen das uns unterdrückende System"-Sentiment herunterbrechen. Es dockt damit direkt an die oben erwähnte Ideologie des Rechtspopulismus an, in der das "wahre Volk" durch die Machenschaften der Eliten bedroht wird.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 65 Herausforderungen für die Europäische Demokratie

Die Herausforderungen, die sich aus der diskursiven Macht der "digitalen Rechten" ergibt, beziehen sich auf mehrere Ebenen. Zum einen betreffen sie die Strukturen der digitalen Öffentlichkeiten. Plattformen wie YouTube oder Facebook entwickeln nur zögerlich und auf öffentlichen Druck hin Mechanismen gegen Desinformation oder Hate Speech. Mehr Regulierung könnte ein Weg sein, um sie zu effektiveren Gegenmaßnahmen zu drängen. Außerdem sind mit der Pluralisierung des Informationsangebots auch die Anforderungen an die Nutzerinnen und Nutzer gestiegen. Sie müssen selbst Wahrheit von Unwahrheit oder seriöse von unseriösen Informationen unterscheiden können. Das heißt, Menschen müssen heute mit einer viel anspruchsvolleren Informationskompetenz ausgestattet sein, um im Dschungel von Fakten und Fakes navigieren zu können und nicht ständig Gefahr zu laufen, manipuliert statt informiert zu werden. Das sind Herausforderungen für die demokratische Gesellschaften in ganz Europa. Sie sollten deshalb auch am besten gemeinsam in Europa angegangen werden.

Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/ de/ (http://creativecommons.org/licenses/by-nc-nd/3.0/de/) Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc- nd/3.0/de/ Autor: Johannes Hillje für bpb.de

Fußnoten

1. Vgl. Albertazzi, Daniele/McDonnell, Duncan: 21st Century Populism, Basingstoke 2008. 2. Siehe ausführlich dazu Hillje, Johannes: Propaganda 4.0 - Wie rechte Populisten Politik machen, Bonn 2017. 3. Stand der Angaben: April 2019 4. Zit.n. TIME-Magazine vom 13. September 2018 (http://time.com/5394448/matteo-salvini/), siehe dort auch die Angaben zu den Reichweiten der genannten Inhalte. 5. Das Video von Salvini kann auf facebook.com (https://www.facebook.com/salviniofficial/ videos/10155248574318155/) abgerufen werden: 6. "Die Altmedien und Altparteien informieren verzerrt und z.T. unwahr" heißt es auf der Seite www. afd-tv.de, die von dem AfD-Bundestagsabgeordneten betrieben wird. 7. Mosca, Lorenzo/Quaranta, Mario: Comparing News Diets, Electoral Choices and EU Attitudes in Germany, Italy and the UK in the 2014 European Parliament Election. In: Caiani, Manuela/ Guerra, Simona (Hg.): Euroscepticism, Democracy and the Media. London 2017, S. 141-168. 8. Siehe ausführlich dazu Hillje, Johannes: Propaganda 4.0 - Wie rechte Populisten Politik machen, Bonn 2017, S. 21ff. 9. Vgl. Hillje, Johannes: Propaganda 4.0 - Wie rechte Populisten Politik machen, Bonn 2017, S. 105ff. 10. Heft, Annett et al.: Transnational nationalism? Comparing right-wing digital news infrastructures in Western Democracies. Paper presented at Internet, Policy & Politics Conference 2018, Oxford (PDF (http://blogs.oii.ox.ac.uk/policy/wp-content/uploads/sites/77/2018/08/IPP2018-Heft.pdf)). 11. Eine aktuelle Analyse zu den Möglichkeiten einer europäischen Öffentlichkeit findet sich in: Hillje, Johannes: Plattform Europa. Bonn 2019. 12. Amadeu Antonio Stiftung: Toxische Narrative - Monitoring rechtsalternativer Akteure. Heidelberg 2017 (PDF (https://www.amadeu-antonio-stiftung.de/wp-content/uploads/2018/08/monitoring-2017-1. pdf))

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 66

Meinungsbildung- und Informationsvermittlung unter Bedingungen digitaler Desinformation

2.5.2019

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 67

Microtargeting und Manipulation: Von Cambridge Analytica zur Europawahl

Von Constanze Kurz , Ingo Dachwitz 2.5.2019 ist promovierte Informatikerin, Autorin und Herausgeberin mehrerer Bücher, aktuell zum Cyberwar. Ihre Kolumne "Aus dem Maschinenraum" erscheint im Feuilleton der FAZ. Sie ist Aktivistin, ehrenamtlich Sprecherin des Chaos Computer Clubs und schreibt für netzpolitik.org.

ist Medien- und Kommunikationswissenschaftler, Redakteur bei netzpolitik.org und Mitglied beim Verein Digitale Gesellschaft. Er gibt Workshops in digitaler Selbstverteidigung, lehrt im internationalen Studiengang "Digital Media" an der Leuphana Universität Lüneburg und ist Mitglied der sozialethischen Kammer der EKD.

Bei digitaler Desinformation geht es nicht nur um die Inhalte, sondern auch um deren Adressierung. Diese Lehre lässt sich unter anderem daraus ziehen, wie Nutzerdaten von Facebook durch eine fragwürdige Firma von der Trump-Kampagne im US- Präsidentschaftswahlkampf 2016 verwendet wurden.

Erinnern Sie sich noch an Cambridge Analytica? Während das öffentliche Interesse an dem größten Datenschutzskandal der letzten Jahre in Deutschland recht schnell nachließ, als bekannt wurde, dass wenig deutsche Nutzer betroffen sind, hat das britische Parlament den Fall gründlich aufgearbeitet. In monatelanger Arbeit hat der Kultur- und Medienausschuss die Faktenlage rund um die Vorgänge beleuchtet und aus diesem Wissen Empfehlungen (https://www.parliament.uk/business/committees/ committees-a-z/commons-select/digital-culture-media-and-sport-committee/news/fake-news-report-published-17-19/) abgeleitet. Mittlerweile ist das Vorgehen beim politischen Microtargeting vielen Menschen grundsätzlich bekannt. Die datenbasierte Persuasionsmethode besteht vereinfacht gesagt aus zwei Kernelementen: In einem ersten Schritt werden auf Grundlage von Datenanalysen möglichst granulare Zielgruppen definiert. Die mit politischen Anzeigen anvisierten Personen bekommen im zweiten Schritt maßgeschneiderte Botschaften, die zu ihren persönlichen Umständen passen: Wer sich etwa bei bestimmten Nachrichtenseiten informiert, in gewissen Gegenden wohnt, Einkommensgrenzen über- oder unterschreitet oder als Kunde verschiedener Verkaufsketten identifiziert wurde, erhält darauf abgestimmte Einspielungen.

Die konkrete Anwendung der aus dem kommerziellen Marketing stammenden und in der politischen Kommunikation inzwischen weit verbreiten Technik variiert sehr anhand der zur Verfügung stehenden Daten und Kommunikationskanäle. Zu simplen Informationen wie Standortdaten kommen für die Zielgruppenerstellung soziodemographische Daten wie Alter, Geschlecht, Bildung, Familienstand sowie – falls vorhanden – Informationen über politische Präferenzen und vergangenes Wahlverhalten. Im Fall von Cambridge Analytica kamen auch sogenannte psychographische Analysen hinzu, mit denen die Datenprofile um psychologische Persönlichkeitsmerkmale ergänzt wurden, die aus dem Facebook-Verhalten abgeleitet wurden.

Während die für die digitale Öffentlichkeit heute wichtigen Plattformen Facebook, Instagram, YouTube und Google mit handlichen Targeting-Werkzeugen ausgestattet sind, die auch Werbenden ohne eigenen Datenbestand umfangreiches Microtargeting ermöglichen, ist die Anwendung der Methode nicht auf digitale Kanäle beschränkt. Die Haustürwahlkämpfer im Dienst der Trump-Kampagne sollen 2016 Medienberichten zufolge 32 auf unterschiedliche Persönlichkeitstypen zugeschnittene Gesprächsleitfaden zur Hand gehabt haben. Je nach Profil (https://www.tagesanzeiger.ch/ausland/ europa/diese-firma-weiss-was-sie-denken/story/17474918) verlief die Ansprache komplett anders. Das Phänomen ist dabei nicht auf konservative Kreise beschränkt: So war es Barack Obama, der

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 68

Persönlichkeitsanalysen und zugeschnittene Ansprache in der politischen Kommunikation kultivierte. Unter anderem wird der Erfolg des 44. US-Präsidenten beim Einwerben von Spenden darauf zurückgeführt, dass er seine Werbung mit Microtargeting perfektionierte: Der Betrag, um den potenzielle Unterstützer in Mails und Briefen gebeten wurden, war genau auf deren prognostizierte Zahlungsbereitschaft abgestimmt.

Microtargeting ist nicht notwendigerweise ein Werkzeug der Desinformation. In seiner simpelsten Form wird die Methode beispielsweise eingesetzt, um regional zugeschnittene Wahlaufrufe zu verbreiten: Dabei wird von einer Partei am Wahltag ein grundsätzlicher Wahlaufruf an die Menschen eines Wahlkreises verbreitet, jeweils mit dem Konterfei des regionalen Kandidaten. Trotz erster Experimente blieben bei der Bundestagswahl 2017 in Deutschland große Manipulationsversuche mithilfe von Microtargeting aus – zumindest, soweit dies von außen beurteilbar ist: Außer Linkspartei und Grünen weigerten sich schließlich alle Parteien, Transparenz über die Rolle von Targeting (https://netzpolitik. org/2017/wahlkampf-in-der-grauzone-die-parteien-das-microtargeting-und-die-transparenz/) in ihrem Wahlkampf zu schaffen. Insgesamt können wir feststellen, dass sich die Gepflogenheiten im anglo- amerikanischen Raum anders entwickelt haben als in Kontinentaleuropa. Der Grund liegt schlicht darin, dass zum einen der Sammlung von detaillierten Menschenprofilen in der EU rechtliche Grenzen gesetzt sind, zum anderen aber auch die Organisation und Durchführung von Wahlkampagnen von verschiedenen Kulturen und rechtlichen Regeln geprägt sind.

Nur weil der Cambridge-Analytica-Skandal umfassend untersucht werden konnte und Schlüsse daraus gezogen wurden, ist das Problem in Großbritannien derweil mitnichten vom Tisch. Tausende bezahlte Botschaften zu den laufenden Brexit-Verhandlungen wurden auch 2018 und 2019 mit Hilfe von Microtargeting an Facebook-Nutzer ausgespielt. Allein die Initiative "Britain’s Future" (https://www. buzzfeed.com/alexspence/mysterious-facebook-brexit-group-britains-future-tim-dawson) gab dafür in weniger als einem halben Jahr fast 350.000 Pfund aus. Die neu geschaffene Transparenz über politische Werbung, derer sich Facebook inzwischen rühmt, besteht nur darin, dass nun an jeder der tausendfachen Pro-Brexit-Anzeigen vermerkt ist, dass die ominöse Gruppierung dafür gezahlt hat. Das aber bringt den Adressaten keinen echten Mehrwert, da über die Initiative rein gar nichts bekannt ist (https://www.facebook.com/ads/archive/report/?source=archive-landing-page&country=GB) – nicht einmal eine Postanschrift, geschweige denn, wer die Geldgeber sind.

Werkzeug der Desinformation

Wie die Technik tatsächlich wirkt, ist wissenschaftlich kaum erforscht und stark kontextabhängig. Oft liegt der Zweck des Microtargeting gar nicht darin, Menschen politisch umzupolen – es reichen schon die Verunsicherung bestimmter Gruppen oder die Polarisierung des Diskurses. Im britischen Unterhauswahlkampf 2017 sollen beispielsweise führende Labour-Funktionäre eine Facebook- Kampagne (https://www.thetimes.co.uk/article/labour-hq-used-facebook-ads-to-deceive-jeremy-corbyn- during-election-campaign-grlx75c27) mit besonders linken Wahlkampfbotschaften betrieben haben, deren tatsächliche Zielgruppe ausschließlich Personen aus dem Umfeld des linken Spitzenkandidaten Jeremy Corbyn enthielt. Dem Großteil der Bevölkerung spielten sie unterdessen weniger radikale Werbung aus.

Die Trump-Kampagne wiederum setzte bewusst auf Demobilisierung mit Microtargeting: Wählergruppen, die wie Frauen oder Schwarze zu Hillary Clinton tendierten, wurden gezielt mit aus dem Kontext gerissenen Negativinformationen über die Konkurrentin bespielt. Nicht, um sie von einer Wahl Donald Trumps zu überzeugen, sondern um sie davon abzuhalten, überhaupt zur Wahl zu gehen und Clinton ihre Stimme zu geben. Eine öffentliche Debatte darüber wurde dadurch erschwert, dass die irreführenden Anzeigen nur der ausgewählten Zielgruppe angezeigt wurden.

Zu einem mächtigen Werkzeug der Desinformation wird Microtargeting also vor allem in Kombination mit anderen Maßnahmen. Immer wieder ist in diesem Zusammenhang auch die Verschleierung der tatsächlichen Absender politischer Botschaften oder ihrer Geldgeber zu beobachten. Im Streit um das

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 69 irische Abtreibungsreferendum im Frühjahr 2018 mischten durch gezielte Facebook-Anzeigen (https:// netzpolitik.org/2018/irland-mit-dark-ads-gegen-abtreibung/) beispielsweise christlich-fundamentalistische Gruppen aus den USA mit, die ihren tatsächlichen Hintergrund versteckten. Besonders beliebt ist dabei das sogenannten Astroturfing, bei dem sich Werbende als neutrale Akteure oder Graswurzelbewegungen ausgeben, um der eigenen Position mehr Legitimität zu verleihen.

Zwischen Wahlaufrufen und Demobilisierung

Auch jenseits der krassen Fälle von Microtargeting als Mittel der Desinformation sollten wir uns die Frage stellen, ob und in welchen Grenzen diese Technik in der politischen Kommunikation wünschenswert ist. Ihr Kernelement ist eine Informationsasymmetrie zwischen Werbenden und Werbeempfängern. Ihr Einsatz für negative Campaigning und zur Entmutigung oder Polarisierung bestimmter Wählergruppen droht unsere politischen Diskurse nachhaltig zu vergiften. Immer wieder werden deshalb Rufe nach einem grundsätzlichen Verbot des politischen Microtargetings laut. Tatsächlich können Verfechter der Methode bisher nicht überzeugend darlegen, dass ihr Nutzen für die Demokratie größer ist als potenzielle Schäden. Das Mindeste wäre deshalb, Microtargeting demokratisch so einzuhegen, dass Risiken minimiert werden. Unabdingbar sind Fortschritte beim Thema Transparenz: Viel wäre schon geholfen, wenn die Öffentlichkeit sich ein besseres Bild von der Landschaft der politischen Werbung machen könnte. Dazu gehört zum einen die strikte Durchsetzung einer bisher nur freiwilligen Selbstverpflichtung zur Kennzeichnung politischer Werbung durch Plattformen. Um Bürgern Mündigkeit zu ermöglichen, bräuchten diese Kenntnis über Absender, Finanziers, Kosten und Targeting-Kriterien einer jeden Anzeige. Zusätzlich braucht es Möglichkeiten der strukturellen Überprüfung der Werbelandschaft durch Journalismus und Wissenschaft: Facebook hat bereits ein großes Werbearchiv (https://www.facebook. com/ads/library) realisiert, aber Berichte von Wissenschaftlern zeigen, dass der Nutzen noch begrenzt ist: Zwar sind die Kosten einzelner Anzeigen auffindbar, nicht jedoch Targeting-Kriterien. Vor allem fehlt eine technische Schnittstelle, die automatisierte Analysen der politischen Werbung im großen Stil erlauben würden. Unabhängig von diesen Maßnahmen auf Seiten der Plattformen sollten Parteien Verantwortung übernehmen und aktiv über Ausgaben, Datensammlungen und Targeting-Kriterien informieren.

Doch Transparenz allein ist nicht genug. Um Missbrauch zu verhindern und faire politische Diskurse zu sichern, braucht das Microtargeting klare Grenzen. Ob Botschaften auf Basis von Geodaten und Interessen zugeschnitten werden oder auf Basis umfassender psychologischer Profile, macht einen erheblichen Unterschied. Aufgrund ihres besonders hohen Manipulationspotenzials könnten psychographische Analysen verboten werden. Darüber hinaus sollten wir über die gesellschaftlich gewünschte Gesamtmenge der politischen Online-Werbung sprechen. Es sollte nicht den Plattformen überlassen werden, über das Maß zu bestimmen, mit dem die Aufmerksamkeit der Bürger an politische Akteure vermarktet werden kann. Im Bereich des Rundfunks gibt es deshalb klare Regeln dafür, welchen politischen Akteuren wie viel Raum für Wahlkampfspots eingeräumt werden darf und muss, so dass nicht Willkür oder allein das Budget der Werbenden ausschlaggebend für die Reichweite sind.

Schlussendlich braucht es eine Debatte über Macht und Nebenwirkungen der Manipulationsindustrie, die sich mit und um marktdominante Online-Plattformen gebildet hat. Wir bezweifeln, dass die digitale politische Öffentlichkeit durch Einzelmaßnahmen zu heilen ist. Datenschutz muss auch als Manipulationsschutz verstanden und konsequent durchgesetzt werden: Ausgiebige Profilbildung, psychometrische Analysen oder die Weitergabe von Daten unter Wahlkämpfern sind mit Prinzipien der in der EU gültigen Datenschutz-Grundverordnung wie Zweckbindung oder Datenminimierung schwerlich in Einklang zu bringen. Nicht zuletzt muss die Macht der Plattformen selbst begrenzt werden, indem ihre Monopolstellung aufgebrochen wird.

Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/ de/ (http://creativecommons.org/licenses/by-nc-nd/3.0/de/) Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc-

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 70 nd/3.0/de/ Autoren: Constanze Kurz, Ingo Dachwitz für bpb.de

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 71

Von der Schwierigkeit, Fake News zu regulieren: Frankreichs Gesetzgebung gegen die Verbreitung von Falschnachrichten im Wahlkampf

Von Amélie P. Heldt 2.5.2019 ist Wissenschaftliche Mitarbeiterin zur Promotion am Leibniz-Institut für Medienforschung, Hans-Bredow-Institut. Sie beschäftigt sich mit Meinungsfreiheit im Internet und forscht zur Transformation der öffentlichen Kommunikation.

Der Begriff "Fake News" ist seit einigen Jahren omnipräsent. Im engeren Sinne sind damit bewusst unwahre Tatsachenbehauptungen gemeint, die insbesondere vor Wahlen mit manipulativer Absicht verbreitet werden können. In Frankreich versucht der Gesetzgeber dagegen vorzugehen.

Fake News, Desinformation, Political Microtargeting – diese Begriffe werden oft in einem Atemzug mit weiteren Internet-Phänomenen genannt und in der öffentlichen Wahrnehmung durcheinandergebracht, obwohl sie jeweils unterschiedliche Probleme betreffen. Bei Fake News handelt es sich um bewusst unwahre Tatsachenbehauptungen in der Erscheinungsform von Nachrichten, die aus politischen oder finanziellen Gründen verbreitet werden. Nach dieser Definition (http://www.bpb.de/252386/was-sind- fake-news) treten Fake News in drei Formen in Erscheinung: Nachrichten, die einem Thema übertriebene Aufmerksamkeit widmen, Propaganda und gezielte Desinformation. Dafür reichen zum Beispiel Halbwahrheiten, die eine Nachricht ausschmücken, oder falsche Tatsachenbehauptungen, die als "alternative Fakten" bezeichnet werden. Gerüchte und Lügen zur Meinungsmanipulation gab es schon lange vor dem Internet. Neu an Fake News ist die massenhafte und zum Teil automatisierte Verbreitung von erfundenen Nachrichten oder von Tatsachen, die zumindest nicht vollkommen der Wahrheit entsprechen oder in irreführenden Kontexten dargestellt werden. Dabei wirkt der Netzwerkeffekt des Internets: wenn Menschen Inhalte mit ihren jeweiligen Kontakten und womöglich plattformübergreifend teilen, geben sie ihnen ein hohes Verbreitungspotenzial.[1] Hier wird also die Infrastruktur des Internets und der Informationsintermediäre genutzt, um möglichst schnell "viral" zu wirken. Desinformationskampagnen und Falschinformationen können anhand technischer Mittel vereinfacht oder weiter gestreut werden, aber dies ist keine sine qua non Voraussetzung für die Arbeit derjenigen, die versuchen auf intransparente Art und Weise den politischen Diskurs zu beeinflussen.

Fake News im Wahlkampf

Die Befürchtung ist, dass Falschnachrichten gezielt in Wahlkampfzeiten eingesetzt werden und einen Einfluss auf das Wahlergebnis haben könnten, weil Wähler sich davon manipulieren lassen. Diese Gefahr es nicht ganz abstrakt, da in den letzten Jahren bereits beobachtet wurde, dass massive Desinformationskampagnen vor den Wahlen stattfanden. Vor dem Brexit-Referendum 2016 zirkulierten falsche Tatsachen und Zahlen über die EU und Großbritanniens Mitgliedschaft, im US- Präsidentschaftswahlkampf 2016 hieß es, die Kandidatin Hillary Clinton würde einen Kinderpornoring lenken, über Emmanuel Macron wurde 2017 gesagt, er sei homosexuell und führe eine Scheinehe. In Deutschland war die Angst vor Fake News vor den Bundestagswahlen 2017 groß, aber sie hat sich empirischen Studien zufolge nicht verwirklicht (https://www.stiftung-nv.de/de/publikation/fakten-statt- fakes-verursacher-verbreitungswege-und-wirkungen-von-fake-news-im). 2018 wurde in Brasilien beobachtet, dass durch das massive Teilen von Falschinformationen in WhatsApp-Gruppen versucht wurde, den Kandidaten der Opposition zu diskreditieren. Wer mischt sich ein? Obwohl Studien zeigen, dass die versuchte Einflussnahme durch Fake News vor Wahlen eher aus dem rechten bis extrem

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 72 rechten Spektrum (https://www.derstandard.de/story/2000085958454/wie-rechtsextreme-gruppen- im-netz-wahlen-beeinflussen) kommen, lässt sich daraus keine Regel ableiten. Es gibt Anhaltspunkte dafür, dass sie zum Teil aus dem Ausland kommen, mit dem Ziel sich in die internen Angelegenheiten anderer Länder einzumischen, um Politik eventuell zu ihrem Vorteil zu beeinflussen oder einfach, um die Situation zu destabilisieren. Die Rede ist vor allem von Aktionen in Bezug auf die US-Wahlen 2016 aus Russland (etwa durch sogenannte "Trollarmeen (https://mdn.ssrc.org/2018/12/17/new-report-on- russian-disinformation-prepared-for-the-senate-shows-the-operations-scale-and-sweep-the-washington- post/)") oder in Bezug auf den Rechtsruck in der EU (etwa durch Donald Trumps Ex-Berater Steve Bannon (https://www.dw.com/de/steve-bannon-will-ein-rechtes-europa/a-44795938)). Das Motiv, Fake News zu generieren, kann allerdings auch finanzieller Natur sein, weil es sich meistens um Skandal-Schlagzeilen handelt, die schneller angeklickt werden (das sogenannte Clickbaiting (https:// www.bpb.de/dialog/netzdebatte/245095/fake-news-der-lackmustest-fuer-die-politische-oeffentlichkeit)).

Anhand digitaler Dienste wird versucht, Einfluss auf Menschen zu nehmen und Automatisierung kann diesen Vorgang vereinfachen und potenzieren. Doch die tatsächliche Wirkung der Automatisierung auf Wahlergebnisse, ob echt oder falsch, lässt sich nicht messen. Man kann Indizien heranziehen, um zu mutmaßen, welchen konkreten Einfluss Fake News auf Wahlen (https://www.hiig.de/ungueltige- wahlen-brasilien-durch-fake-news/) haben, aber die Wahlentscheidung treffen Menschen selbst und die Beweggründe dafür sind nicht von außen erkennbar. Das gilt für Informationen allgemein, weshalb es für eine Demokratie so wichtig ist, dass BürgerInnen Zugang zu zuverlässigen Informationsquellen haben und dass journalistische Medien dem Prozess der individuellen und öffentlichen Meinungsbildung dienen. Beim vorliegenden Problem der Desinformation kann allerdings auch der Gesetzgeber aktiv werden.

Was kann der Gesetzgeber tun?

Was ist die Lösung gegen Fake News, wenn es keine eindeutige, technische Ursache gibt? Das Problem kann auf mehreren Ebenen angegangen werden, beispielsweise mit mehr Medienkompetenz oder Angeboten wie Faktenchecks.[2] Aus Sicht des Gesetzgebers ist es schwierig, regulatorisch tätig zu werden, ohne Grundrechte wie die Meinungsfreiheit oder die Pressefreiheit unverhältnismäßig zu beschränken, gerade weil das Phänomen so diffus und vielschichtig ist. Frankreich hat sich dennoch für diesen Schritt entschieden: Nachdem vor den Präsidentschaftswahlen 2017 falsche Informationen über Emmanuel Macron (https://www.france24.com/fr/20170424-communautes-4chan-sorganisent- lancer-fake-news-emmanuel-macron) verbreitet wurden, kündigte der französische Präsident ein Gesetz gegen "Fake News" an.

Frankreich hatte bereits zwei Gesetze gegen unzulässige Wahlbeeinflussung. Art. 27 des französischen Gesetzes über die Pressefreiheit von 1881 (https://www.legifrance.gouv.fr/ affichTexteArticle.do;jsessionid=3D35DBCEE5887FCE2EC1014E12898175.tplgfr31s_3?idArticle= LEGIARTI000006419726&cidTexte=LEGITEXT000006070722&dateTexte=20180122) verbietet "die Veröffentlichung, die Verbreitung oder die Vervielfältigung von falschen Nachrichten, von fabrizierten, verfälschten oder wahrheitswidrig Dritten zugeschriebenen Stücken, um aus unaufrichtigen Gründen den öffentlichen Frieden zu stören, oder Störpotenzial zu entwickeln". Hier geht es also um Falschnachrichten, die mit der Absicht verbreitet werden, den öffentlichen Diskurs zu beeinflussen. Im Kontext von Wahlen droht Art. 97 des französischen Wahlgesetzes (https://www.legifrance.gouv.fr/ affichCodeArticle.do;jsessionid=3D35DBCEE5887FCE2EC1014E12898175.tplgfr31s_3?idArticle= LEGIARTI000006353232&cidTexte=LEGITEXT000006070239&dateTexte=20180122)mit einer Freiheitsstrafe von ¼ bis zu einem Jahr oder eine Geldstrafe bis zu 15.000 Euro für diejenigen, die "mithilfe von falschen Nachrichten, verleumderischen Gerüchten oder anderen betrügerischen Manövern, Wahlergebnisse durcheinanderbringen oder verfälschen, oder einen oder mehrere Wähler davon abhalten zu wählen".

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 73 Die neue Regulierung in Frankreich

Das Gesetz gegen Informationsmanipulationen wurde im November 2018 vom französischen Parlament verabschiedet und im Dezember 2018 hat der Conseil Constitutionnel (Äquivalent zum deutschen Bundesverfassungsgericht) es bestätigt, indem es anhängige Beschwerden gegen das Gesetz zurückwies. Seit dem ersten Entwurf der französischen Regierung war das Gesetzesprojekt umstritten und wurde erst nach einigen Änderungen vom Parlament verabschiedet. Zunächst hieß es (übersetzt) "Gesetz gegen Falschinformationen". In dieser Fassung fehlte die Voraussetzung einer Absicht, das heißt es kam nicht darauf an, ob man von der Unwahrheit der Information wusste und jene bewusst verbreiten wollte, um Wahlen zu beeinflussen. Das Fehlen eines subjektiven Elements hat viel Kritik provoziert.

Der finale Entwurf, das Gesetz gegen Informationsmanipulationen ("loi contre les manipulations de l’information (https://www.legifrance.gouv.fr/affichTexte.do;jsessionid=97BB2F082E6CF33B3399966E8A6CE9BD. tplgfr31s_3?cidTexte=JORFTEXT000037847559&categorieLien=id)" ), richtet sich weniger gegen Falschinformationen an sich, sondern gegen die Verbreitung von Falschinformationen zum Zwecke der Wahlmanipulierung. Der Anwendungsbereich wird in Art. 1 definiert: Verboten ist "jede Behauptung oder ungenaue oder irreführende Zuschreibung über eine Tatsache, die die Wahrhaftigkeit der bevorstehenden Wahlen beeinträchtigen könnte, die absichtlich, künstlich oder automatisch in großem Umfang über einen öffentlichen Online-Kommunikationsdienst verbreitet wird." Damit zielt das Gesetz auf Fake News ab, die die Glaubhaftigkeit der Wahlergebnisse verringern könnten. Zeitlich ist die Anwendung des Gesetzes auf die drei Monate vor einer Wahl, einschließlich des Tages der Wahl befristet. Wird eine Falschnachricht entdeckt, die der Definition aus Art. 1 entspricht, kann ein Eilverfahren vor Gericht eingeleitet werden. Über die Konsequenz eines Verstoßes entscheidet das Landgericht auf Antrag binnen 48 Stunden. Das Gericht kann alle verhältnismäßigen und notwendigen Maßnahmen zur Verhinderung der Verbreitung von Falschinformationen beschließen, also Blockieren, Löschen und/oder Nichtweiterverbreiten des Inhaltes.

Damit bleibt die Entscheidungshoheit gegen individuelle Akteure im Wesentlichen bei der Judikative und das Verbot wird nicht von einer Behörde umgesetzt. Das ist im Lichte der Gewaltenteilung begrüßenswert und sorgt für mehr Vertrauen in den Rechtsstaat. Der französische Gesetzgeber hat die Verantwortung im Gegensatz zum deutschen Netzwerkdurchsetzungsgesetz nicht auf die sozialen Netzwerke übertragen, die ansonsten einen größeren Einfluss auf den öffentlichen Diskurs und den Wahlkampf nehmen könnten.

Probleme mit dieser Gesetzgebung

Obwohl der französische Gesetzgeber das Eingriffspotenzial des Gesetzes in Bezug auf den Anwendungsbereich und -zeitraum beschränkt hat, könnte es im Verhältnis zu Medienfreiheiten zu Kollisionen kommen. Im Journalismus gilt beispielsweise der (als Menschenrecht geschützte) Quellenschutz: Wie kann der gewährleistet bleiben, wenn neue Transparenzpflichten insbesondere gegenüber kritischer Berichterstattung durchgesetzt werden? Auch die sogenannte "Schere im Kopf " sollte nicht unerwähnt bleiben. Werden BürgerInnen sich in Zukunft davor fürchten, ihre kritische Meinung zu Wahlkampfthemen zu äußern und sich deswegen selbst zensieren? Diese Aspekte sind sowohl für Einzelne, als auch für die Gesellschaft von Relevanz, da Meinungs-, Informations- und Medienfreiheiten im Prozess der Meinungsbildung eng verwoben sind.

Abgesehen von den Fragen, die sich aus juristischer Perspektive stellen, ist auch unklar, wie praktikabel das Gesetz in der Umsetzung ist. Wie beschrieben gibt es nicht nur eine Form von Fake News, und es kann daher schwierig sein, sie zweifelsfrei als solche zu identifizieren. Das gilt umso mehr, wenn Gerichten nur wenig Zeit zur Verfügung steht und sie nicht über die erforderlichen technischen Kenntnisse verfügen.[3] Als größte Herausforderung gelten "Deepfakes (https://motherboard.vice. com/en_us/article/594qx5/there-is-no-tech-solution-to-deepfakes)", manipulierte Bilder oder Videos, die täuschend echt aussehen und mithilfe von künstlicher Intelligenz erstellt werden. Sogar Experten fällt es schwer, solche Täuschungen zu enttarnen. Selbst wenn Zügigkeit im Eilverfahren üblich ist,

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 74 könnte eine gerichtliche Entscheidung, die auf der Grundlage von Glaubhaftmachungen getroffen wird, obwohl die Grenze zwischen Wahrheit und Fälschung unklar ist, weitreichende Folgen haben. Der enge Zeitrahmen und die Wahlkampfsituation könnten ihren Teil dazu beitragen. Regulierungen wie das französische Gesetz gegen Informationsmanipulation in Wahlkampfzeiten können Verbreiter von Fake News eventuell abschrecken, aber ob sie sich wirklich davon abhalten lassen, oder ob ihre Aktivitäten einen direkten Einfluss auf das Wahlergebnis haben, lässt sich nicht feststellen.[4] Aus diesem Grund sollte die Zusammenarbeit mit den Plattformen nicht vernachlässigt werden, denn sie können ihren Teil beitragen. Zum Beispiel kann Whatsapp verhindern, dass Nachrichten massenhaft weitergeleitet werden dürfen und Facebook kann politische Werbung deutlicher kennzeichnen. Auf diese Weise können aus der Architektur der Plattformen, also aus der Technik, die zur Verfügung steht, Normen entstehen,[5] die gegen Intransparenz und Manipulation des öffentlichen Diskurses wirken und zur Gewährleistung eines freien und fairen Wahlablaufs beitragen.

Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/ de/ (http://creativecommons.org/licenses/by-nc-nd/3.0/de/) Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc- nd/3.0/de/ Autor: Amélie P. Heldt für bpb.de

Fußnoten

1. Vosoughi, Soroush/Roy, Deb/Aral, Sinan: The spread of true and false news online (http://science. sciencemag.org/content/359/6380/1146.full). In Science: 3/2018, Vol. 359, S. 1146-1151. 2. Benkler, Yochai/Faris, Robert/Roberts, Hal: Network Propaganda, hier: S. 351-380, Oxford 2018 (PDF (http://fdslive.oup.com/www.oup.com/academic/pdf/openaccess/9780190923624.pdf)). 3. Heldt, Amélie: Von der Schwierigkeit Fake News zu regulieren. In: HIIG-Wissenschaftsblog vom 7.8.2018 (https://www.hiig.de/von-der-schwierigkeit-fake-news-zu-regulieren/). 4. Sängerlaub, Alexander: Der blinde Fleck digitaler Öffentlichkeiten: Warum sich Desinformationskampagnen in sozialen Netzwerken kaum systematisch analysieren lassen. Stiftung Neue Verantwortung 2019 (PDF (https://www.stiftung-nv.de/sites/default/files/blinde. fleck_.digitale.oeffentlichkeit.pdf)). 5. Lessig. Lawrence: Code Is Law: On Liberty in Cyberspace. Harvard Magazine vom 1.1.2000 (https://harvardmagazine.com/2000/01/code-is-law-html).

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 75

Bürger oder Bots? Automatisierte Kommunikation im Bundestagswahlkampf 2017

Von Ulrike Klinger 2.5.2019 ist Professorin für Digitale Kommunikation an der FU Berlin und leitet die Forschungsgruppe "Nachrichten, Kampagnen und die Rationalität öffentlicher Diskurse" am Weizenbaum Institut für die vernetze Gesellschaft in Berlin. Sie ist Kommunikationswissenschaftlerin, forschte und lehrte an der Universität Zürich, der Zeppelin Universität Friedrichshafen, der Goethe Universität Frankfurt und der University of California in Santa Barbara.)

Das Thema "Social Bots" beschäftigte vor der Wahl 2017 die politische Öffentlichkeit. Eine empirische Untersuchung demonstriert den Umfang des Phänomens bei Twitter: Bei den Followern von deutschen Parteien spielen Bots jedenfalls keine relevante Rolle

Social Bots sind Profile in sozialen Netzwerken, die sich als Menschen ausgeben, aber teilweise oder ganz automatisiert und algorithmisch kontrolliert agieren. Bots agieren also nicht autonom, sondern letztlich stehen hinter jedem Bot Menschen oder Organisationen, die mit Hilfe dieser automatisierten Accounts Inhalte schneller und weiter verbreiten und dadurch Popularität sowie Relevanz künstlich erzeugen oder zumindest vortäuschen können. Das gilt nicht nur, aber auch für Desinformationskampagnen. Ein zentrales Merkmal ist, dass sich Social Bots tarnen und es selbst für Experten sehr schwierig ist, sie als solche zu identifizieren. Das unterscheidet sie von Chatbots, die als Assistenzprogramme im Kundendienst oder in Messenger Diensten nützlich sind und von eher harmlosen offensichtlichen Bots.

In Wahlkämpfen und anderen politische Kampagnen können Social Bots problematische Effekte haben. Erstens simulieren sie Popularität und Relevanz dadurch, dass einzelne Parteien oder Kandidaten mehr "Follower" haben, die aber nicht Bürger, Wähler, oder Parteimitglieder sind, sondern Maschinen. Zweitens vergrößern sie künstlich die Reichweite politischer Botschaften und Themen, weil die Algorithmen der Social Media Plattformen Engagement belohnen, also Botschaften sichtbarer machen, wenn Nutzer (egal ob Mensch oder Bots) mit ihnen interagieren, sie liken, teilen oder kommentieren. Drittens zeigen agentenbasierte Netzwerksimulationen, dass in bestimmten Konstellationen schon zwei bis vier Prozent Bots in einem Diskurs ausreichen, um das Meinungsklima zu drehen.[1] Das bedeutet nicht, dass Menschen wegen Bots ihre Meinung oder politische Einstellung ändern, aber dass sie eine unzutreffende Vorstellung davon bekommen, welche Themen für relevant erachtet und welche Meinungen weit verbreitet sowie mehrheitsfähig sind. So entstehen zum Bespiel laute Minderheiten.

Es ist also kein Wunder, dass dieses Thema bereits vor der Bundestagswahl 2017 kontrovers diskutiert wurde. Zahlreiche Studien hatten bereits belegt, dass Social Bots in den Wahlkampagnen der US Präsidentschaftswahl 2016,[2] vor dem Brexit-Referendum,[3] vor den französischen Präsidentschaftswahlen im Frühjahr 2017[4] und in anderen Fällen[5] aktiv waren. Im Oktober 2016, ein Jahr vor der Wahl, kündigte die AfD an, "selbstverständlich" Bots einsetzen zu wollen (https://www. zeit.de/digital/internet/2016-10/bundestagswahlkampf-2017-afd-social-bots): "Gerade für junge Parteien wie unsere sind Social-Media-Tools wichtige Instrumente, um unsere Positionen unter den Wählern zu verbreiten." Alle anderen Parteien lehnten dies hingegen ab, und auch die AfD machte einige Tage später einen Rückzieher mit der Erklärung, nun doch keine Bots im Wahlkampf nutzen zu wollen. Dabei ist die Haltung der Parteien hier zwar wichtig, aber nicht zentral: Social Bots sind sehr einfache Programme, man kann sie käuflich erwerben oder mit geringen Programmierkenntnissen selbst erstellen. Im Grunde kann fast jeder Akteur Social Bots in Kampagnen losschicken, nicht nur die Parteien.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 76

Wie man Bots identifizieren kann

Vor dem Hintergrund, dass Social Bots nun einmal existieren, bereits aktiv in anderen Wahlkampagnen involviert waren und eine ganz neue Akteursform der politischen Kommunikation darstellen, stellt sich nun die Frage, ob sie auch in der Bundestagswahl 2017 eine Rolle gespielt haben. Wir werden dazu aktive und passive Bots vergleichen und danach fragen, wie viele Bots wir unter den Twitter-Followern der deutschen Parteien vor und während des Wahlkampfs finden.[6] Weil bislang unklar ist, wie viele Bots zu viele Bots sind, vergleichen wir zwei Zeitpunkte, um einen eventuellen Anstieg des Bot-Anteils sichtbar zu machen. Eine andere Variante des Zugangs wäre es, die Beteiligung von Bots an wahlrelevanten Twitter-Hashtags zu untersuchen – dann könnten wir aber nur die aktiven, nicht aber die passiven Bots erfassen. Dabei hat Woolley gezeigt, dass in Demokratien vor allem passive Bots unterwegs sind, die die Followerzahlen künstlich aufbauschen, während in autokratischen und semi- demokratischen Staaten eher aktive Bots eingesetzt werden, unter anderem mit dem Ziel, die politische Opposition zu demobilisieren.[7]

Will man Social Bots untersuchen, muss man zunächst auf Nutzerdaten der sozialen Netzwerke zugreifen, in unserem Falle Twitter. Das ist über eine Datenschnittstelle, eine sogenannte API möglich, oder über Datenhändler. Der Zugang zu Daten der sozialen Netzwerke ist nur sehr eingeschränkt möglich, so dass es von außerhalb der Unternehmen viel schwieriger ist, öffentliche Kommunikation in sozialen Netzwerken zu analysieren oder Bots zu identifizieren. Tatsächlich argumentierte Twitters " Head of Site Integrity", Yael Roth (https://twitter.com/yoyoel/status/1058471837313589248), dass niemand außer Twitter selbst die nicht-öffentlichen Nutzerdaten einsehen könne, so dass nur Twitter selbst Bots mit Sicherheit identifizieren könne. Der eingeschränkte Datenzugang bedeutet letztlich auch, dass eine zentrale Funktion von Öffentlichkeit derzeit beschnitten ist: die Selbst-Beobachtung der Gesellschaft.[8]

Für unsere Studie haben wir, soweit verfügbar, die Daten aller Twitter-Follower der wichtigsten deutschen Parteien im Wahlkampf heruntergeladen: 1,2 Millionen Follower im Februar 2017 und 1,6 Millionen Follower im September 2017. In den Metadaten der Follower sehen wir, ob die Accounts aktiv oder inaktiv sind, das heißt ob sie in den drei Monaten vor der Datenerhebung Tweets oder Retweets gesendet, etwas kommentiert oder als Like markiert haben. Noch bevor wir überprüfen, wie viele Bots darunter sind, fallen zwei bemerkenswerte Muster ins Auge: Zum einen variierte der Anteil der aktiven Follower stark. So war der Anteil der aktiven Follower der AfD deutlich höher als bei den anderen Parteien (im September 2017 26% vs. durchschnittlich 15%). Zum anderen zeigten die Follower der AfD eine Vernetzungsstruktur, die von den anderen Parteien deutlich abweicht. Fast die Hälfte der AfD Follower (45%) folgen ausschließlich der AfD, während die Follower der anderen Parteien ganz überwiegend (87%) mehreren Parteien, auch über das ideologische Spektrum hinweg folgen.

Zur Identifikation von Bots gibt es ganz verschiedene Ansätze. Hier nutzen wir ein Instrument, das von Informatikern an der University of Indiana entwickelt wurde, das "Botometer". Wie andere Methoden handelt es sich um kein perfektes Instrument, aber es bietet doch einige Vorteile: Es analysiert 1150 Merkmale der Kategorien Vernetzung, Tweet-Verhalten, Inhalt und Sprache, Sentiment und zeitliche Sequenzierung der Tweets. Botometer ist über eine Webseite zugänglich, um einzelne Accounts zu überprüfen sowie über eine API, so dass auch automatisierte Analysen größerer Datensätze möglich sind. Ende 2018 erreichten Botometer 250.000 Anfragen pro Tag[9] und es wurde bereits erfolgreich in zahleichen Studien verwendet, zum Beispiel des PEW Research Centers in den USA. Botometer basiert auf Algorithmen, die mithilfe von Datensets trainiert wurden – das bedeutet, Botometer findet nur Bots, die ähnliche Charakteristika aufweisen wie Bots, die bereits vorher in anderen Datensätzen und mit anderen Methoden entdeckt wurden.

Damit Botometer einschätzen kann, ob es sich bei einem Account um einen Menschen oder einen Bot handelt, sind die Metadaten der Accounts wichtig. Wenn die Privatsphäre-Einstellungen eines Accounts restriktiv auf "privat" gesetzt sind, hat Botometer keinen Zugriff auf die Inhalte und kann keine

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 77 vollständige Analyse durchführen. Auch Accounts die bereits schon wieder gelöscht wurden oder überhaupt gar keine Inhalte getweetet hatten, kann Botometer nicht analysieren. Insgesamt basieren die Ergebnisse unserer Studie auf ungefähr der Hälfte der Twitter-Follower der Parteien (638.674 Follower im Februar 2017 und 838.026 Follower im September 2017), was ganz überwiegend (80% der nicht-analysierbaren Fälle) an leeren Timelines liegt, also Followern, die noch nie irgendeinen Tweet oder Retweet gesendet hatten.

Einsatz von Social-Bots bei Parteien im Vergleich Februar und September 2017 Lizenz: cc by-nc-nd/3.0/de/ (Ulrike Klinger)

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 78

Aktive Social-Bots der Parteien Februar und September 2017 Lizenz: cc by-nc-nd/3.0/de/ (Ulrike Klinger) Bots im Bundestagswahlkampf

Im Ergebnis kann man feststellen, dass im Bundestagswahlkampf 2017 etwa 10 Prozent Social Bots unter den Followern der deutschen Parteien waren. Das waren aber ganz überwiegend passive Bots, denn nur 1,4 Prozent der Bots haben überhaupt Inhalte verbreitet. Die Zahl der Social Bots insgesamt ist im Vergleich zum Februar 2017 leicht angestiegen (von etwa 7 auf 10 Prozent), wobei aber die Zahl der aktiven Bots leicht gesunken ist (von etwa 2 auf 1,4 Prozent). Alle Parteien hatten in ähnlichem Ausmaß Social Bots unter ihren Followern. Unter den AfD-Followern findet sich zwar der geringste Bot-Anteil, dafür sind darunter mehr aktive Bots. Schaut man sich die Inhalte an, die diese Bots gesendet haben wird aber klar, dass sie kaum an wahlrelevanten Themendynamiken, die die Bundestagswahl 2017 betreffen, beteiligt waren. Dies bedeutet nicht, dass sie im Bundestagswahlkampf keine Rolle gespielt hätten – denn wir haben hier nur die Twitter-Follower der Parteien untersucht. Möglicherweise ergibt sich ein anderes Bild, wenn wir die Beteiligung von Bots an Hashtags und thematischen Diskursen im Wahlkampf anschauen.

Social Bots sind zweifellos ein aus demokratie- und diskurstheoretischer Sicht spannendes Phänomen über das wir bislang noch sehr respektive zu wenig wissen. Sie sind keinesfalls per se und in jedem Fall schädlich, haben aber durchaus disruptives Potential für die Meinungsbildung in sozialen Netzwerken. Weil sie präsent sind, zumindest potentiell auch an politischen Diskursen teilnehmen und das Meinungsklima beeinflussen können, brauchen wir mehr Studien und bessere Instrumente, sie zu finden und ihre Auswirkungen analysieren zu können.

Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/ de/ (http://creativecommons.org/licenses/by-nc-nd/3.0/de/) Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc- nd/3.0/de/ Autor: Ulrike Klinger für bpb.de

Fußnoten

1. Vgl. Ross, B. et al.: Are social bots a real threat? An agent-based model of the spiral of silence to

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 79

analyse the impact of manipulative actors in social networks. In: European Journal of Information Systems, 2019, S. 1-19. 2. Vgl. Bessi, A./Ferrara, E.: Social Bots Distort the 2016 US Presidential Election Online Discussion. In: First Monday, 11/2016. 3. Vgl. Howard, P. N./Kollanyi, B.: Bots, #StrongerIn, and #Brexit: Computational Propaganda during the UK-EU Referendum. Working Paper 2016. 4. Vgl. Ferrara, E.: Disinformation and social bot operations in the run up to the 2017 French presidential election. In: First Monday, 8/2017. 5. Vgl. z.B. Hegelich, S./Janetzko, D.: Are Social Bots on Twitter Political Actors? Empirical Evidence from a Ukrainian Social Botnet. In: Proceedings of the Tenth International AAAI Conference on Web and Social Media 2016, S. 579-582; Forelle, M. C. et al.: Political Bots and the Manipulation of Public Opinion in Venezuela, 2015 (PDF (https://arxiv.org/ftp/arxiv/papers/1507/1507.07109. pdf)). 6. Dieser Beitrag basiert auf Keller, T. R./Klinger, U.: Social Bots in Election Campaigns: Theoretical, Empirical, and Methodological Implications. Political Communication, 1/2019, S. 171-189. 7. Vgl. Woolley, S. C.: Automating power: Social bot interference in global politics. First Monday, 4/2016 (PDF (https://uncommonculture.org/ojs/index.php/fm/article/view/6161/5300)). 8. Siehe auch Sängerlaub, A.: Der blinde Fleck digitaler Öffentlichkeiten. Stiftung Neue Verantwortung, Berlin 2019 (PDF (https://www.stiftung-nv.de/sites/default/files/blinde.fleck_. digitale.oeffentlichkeit.pdf)). 9. Ausführlich dazu Yang, K.-C. et al.: Arming the public with artificial intelligence to counter social bots. In: Human Behavior & Emerging Technologies. 1/2019, S. 48-61.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 80

Die Medienlogik der Informationsintermediäre und ihre Bedeutung für Meinungsbildung

Von Jan-Hinrik Schmidt 2.5.2019 ist Senior PostDoc für digitale interaktive Medien und politische Kommunikation am Leibniz-Institut für Medienforschung|Hans- Bredow-Institut. Ein Schwerpunkt seiner Arbeit liegt auf dem Zusammenhang von Medienwandel und dem Wandel von Öffentlichkeit, Meinungsbildung und gesellschaftlichem Zusammenhalt.

Wollen wir uns eine Meinung zu Themen oder Entscheidungen von gesellschaftlicher Relevanz bilden, können wir uns nicht ausschließlich auf unser eigenes Erleben im Alltag verlassen. Vielmehr sind wir darauf angewiesen, mit Hilfe von Medien einen Überblick zu gewinnen.

Noch spielen die klassischen Medien, wie Print, TV und Radio, eine wichtige Rolle bei der Informationsvermittlung. Lizenz: cc by/3.0/de (CC, Stefan Lampe für bpb.de) Wollen wir uns eine Meinung zu Themen oder Entscheidungen von gesellschaftlicher Relevanz bilden, können wir uns nicht ausschließlich auf unser eigenes Erleben im Alltag verlassen. Vielmehr sind wir darauf angewiesen, mit Hilfe von Medien einen Überblick zu gewinnen, und zwar in mehrerlei Hinsicht: Erstens helfen uns Medien dabei, überhaupt erst Kenntnis von vergangenen und anstehenden Ereignissen zu erhalten, oder die verschiedenen Alternativen zu erfahren, die zu einer Entscheidung, bei einer Wahl oder ähnlichem existieren. Medien vermitteln uns also Wissen, um Meinungsbildung auf informierter Grundlage betreiben zu können. Zweitens ordnen Medien Themen für uns ein. Aus der Medienberichterstattung können wir einen Eindruck davon gewinnen, welche Ereignisse oder Fragen gerade "auf der gesellschaftlichen Tagesordnung" stehen; man spricht hier auch von der " Agenda-Setting"-Funktion der Medien. Zudem bettet mediale Berichterstattung durch Auswahl und

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 81

Darstellung von Themen diese immer in rahmende Deutungsmuster beziehungsweise "Frames" ein. Drittens schließlich helfen Medien uns dabei, ein Gespür für das Meinungsklima in der Gesellschaft zu entwickeln, also einen Eindruck davon zu gewinnen, ob wir mit einer bestimmten Haltung mit der Mehrheit der Bevölkerung übereinstimmen oder uns eher in der Minderheit befinden.

Die beschriebenen Mechanismen und Einflussfaktoren sind für journalistisch-publizistische Massenmedien zwar nicht vollständig, aber doch hinreichend gut erforscht. Mit dem Internet, und speziell mit den sozialen Medien, hat sich in den vergangenen Jahren das Gefüge der Öffentlichkeit allerdings verändert. Plattformen wie Facebook, YouTube, Instagram und Twitter, aber auch die Suchmaschine Google sind für viele Menschen zu unverzichtbaren Medienangeboten geworden, um Informationen zu allen nur erdenklichen Themen zu erhalten oder selbst zu verbreiten. Sie fungieren als "Intermediäre", die selbst keine eigenen Inhalte produzieren, sondern die Voraussetzung schaffen, dass ihre Nutzer Inhalte aller Art verbreiten bzw. auffinden können. Doch welchen Einfluss haben sie auf die Meinungsbildung? Wo funktionieren sie anders als die vertrauten journalistisch-publizistischen Angebote aus Fernsehen, Radio und Print?

Die "Medienlogik" der Intermediäre: Drei Prinzipien

1. Als erstes Prinzip bringen die Intermediäre eine eigene Form der Bündelung von Informationen ins Spiel. Publizistische Angebote wählen nach journalistischen Kriterien Themen aus, bereiten sie auf und verbreiten sie als "Sendung" oder "Ausgabe", also als Paket von Inhalten mit abgrenzbarem Umfang und Erscheinungsdatum. Die Intermediäre hingegen bieten ihren Nutzerinnen und Nutzern einen ständig aktualisierten Strom von Informationen, in den Inhalte aus ganz unterschiedlichen Quellen eingehen können: journalistische Nachrichten genauso wie privat- persönliche Status-Updates, strategisch gesetzte Botschaften von politischen Parteien oder Bürgerinitiativen genauso wie kommerziell motivierte Inhalte von Unternehmen, Marken oder " Influencern". Für den Facebook-Newsfeed oder die Twitter-Timeline gibt es keinen Redaktionsschluss und kein Erscheinungsdatum – die Intermediäre stellen uns bei jedem Besuch aufs Neue ein aktualisiertes Informationsbündel zusammen.

2. Damit eng verbunden ist ein zweites Prinzip, nämlich die Personalisierung von Informationsangeboten. Publizistische Angebote wie die Tagesschau oder die Samstagsausgabe der Lokalzeitung sehen für alle Menschen gleich aus. Die Startseite von Facebook oder Instagram unterscheidet sich aber von Nutzerin zu Nutzer. Dafür sind zwei Mechanismen verantwortlich: Zum einen entscheiden Nutzerinnen und Nutzer selbst, welchen anderen Personen, Gruppen oder ähnlichem sie "folgen" wollen. Dadurch setzen sie sich ihr eigenes personalisiertes Repertoire an Quellen zusammen, die den unter a) beschriebenen Informationsstrom speisen. Zum anderen sind im Hintergrund Empfehlungs- und Filteralgorithmen am Werk, die die zahlreichen bewusst oder unbewusst hinterlassenen Datenspuren einer Person nutzen, um weitere Inhalte oder Kanäle vorzuschlagen.

3. Das dritte Prinzip, das die Informationsintermediäre – mit Ausnahme von Google – kennzeichnet, ist das Integrieren von zwei bis dato weitgehend getrennten Kommunikationsmodi. Publizistische Angebote vertreten, wie der Name schon verrät, den Modus der Publikation: Eine kleine Gruppe von "Sendern" wählt Informationen aus, bereitet sie auf und verbreitet sie dann an eine verstreute Masse von "Empfängern". Das Publikum der Massenmedien hat nicht die Möglichkeit, auf dem gleichen Kanal "zurück zu senden", es handelt sich in dieser Hinsicht also um einseitige Kommunikation. Demgegenüber ist die Konversation ein dialogischer Kommunikationsmodus, bei dem "Sender"- und "Empfänger"-Rollen rasch wechseln können. Wir finden diesen Modus im

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 82

Gespräch von Angesicht zu Angesicht, aber auch via Telefon oder Brief. Das Internet lässt die klaren technischen Grenzen zwischen diesen Modi verschwinden. Auf Facebook oder YouTube etwa finden wir sowohl publizistische Kommunikation, weil journalistische Angebote ihre Nachrichten dort ebenfalls verbreiten, als auch Kommunikation im Modus der Konversation, etwa in den Kommentarbereichen unter einem Video. Nutzerinnen und Nutzer können sich nun also direkt und für andere Personen sichtbar zu Wort melden und eine journalistisch erstellte Meldung liken, kommentieren oder an ihr eigenes Kontaktnetzwerk weiterleiten.

Konsequenzen für die Meinungsbildung zwischen Fragmentierung und Hate Speech

Diese Prinzipien der Medienlogik von Intermediären – notgedrungen in sehr groben Zügen nachgezeichnet – bleiben nicht folgenlos für die Meinungsbildung ihrer Nutzerinnen und Nutzer. Entlang der eingangs beschriebenen generellen Mechanismen lassen sich diese Konsequenzen näher beschreiben, wobei deutlich wird, dass sie nicht per se "gut" oder "schlecht" sind.

In Hinblick auf die Vermittlung von Wissen etwa tragen Informationsintermediäre dazu bei, dass Menschen Zugang zu einer bislang ungekannten Fülle von Informationen und Daten zu allen nur erdenklichen Themen haben. Für die Meinungsbildung heißt das unter anderem, dass Menschen über die journalistische Berichterstattung hinausgehen und Themen vertiefend recherchieren können. Umgekehrt können Intermediäre Vielfalt für ihre Nutzerinnen und Nutzer aber auch einschränken: Denn die meisten Menschen neigen kognitionspsychologisch dazu, sich in der Regel nur sehr selektiv zu informieren und insbesondere solche Informationen zu vermeiden, die das eigene Weltbild in Frage stellen. Hinzu kommt die Tendenz von Menschen, sich mit anderen Personen zu umgeben, die ihnen – zum Beispiel in Hinblick auf Bildungsstand oder politische Einstellungen – ähnlich sind. Die momentan gängigen Personalisierungsalgorithmen verstärken diese Tendenzen, weil sie vorrangig darauf achten, welche Informationen eine Person in der Vergangenheit bereits als relevant eingeschätzt hat (gemessen etwa durch Klicks oder Verweildauer) sowie was Mitglieder ihres bzw. seines erweiterten Netzwerks erstellt, kommentiert oder empfohlen haben. Im Extremfall kann es so im Lauf der Zeit zu " Filterblasen" kommen.

Auch im Hinblick auf die Zuweisung von Relevanz zu bestimmten Themen oder Inhalten haben Intermediäre einen Doppelcharakter. Einerseits können sie sichtbar machen, welche Ereignisse oder Themen die Nutzerinnen und Nutzer gerade für relevant halten, und inwieweit diese "Publikumsagenda " möglicherweise von der journalistischen Agenda abweicht. Zudem können die von publizistischen Medien hergestellten Deutungsmuster oder "Frames" zu bestimmten Themen angesprochen, kritisch reflektiert und durch alternative Deutungsmuster ergänzt werden. Andererseits besteht das Risiko, dass sich rund um konkurrierende Relevanzzuschreibungen und Frames herum Gruppen von Nutzerinnen und Nutzern bilden, die sich in ihren eigenen "Nischen" einrichten und nicht mehr mit anderen Gruppen verbunden sind – es also zu einer Fragmentierung von Öffentlichkeit kommt.

Hinsichtlich der Repräsentation von Meinungen schließlich eröffnen insbesondere die sozialen Medien zahlreiche Möglichkeiten, sich in Debatten zu gesellschaftlich relevanten Themen einzubringen und die eigene Meinung kund zu tun. Dies erhöht zugleich auch die Chance, einen Einblick in das Meinungsklima zu gewinnen, gerade im eigenen erweiterten sozialen Umfeld, wie es sich zum Beispiel in den Facebook-Kontakten wiederspiegelt. Die Kehrseite ist, dass Kommunikationsräume entstehen können, in denen nicht der verständigungsorientierte Austausch von Argumenten im Vordergrund steht, sondern wo sich Menschen wechselseitig in ihrer vorgefassten Meinung bestätigen. Diese " Echokammern", in denen nur noch zu Gehör kommt, was dem Gruppenkonsens entspricht, sind vor allem dann problematisch, wenn sie um extreme, intolerante und undemokratische Haltungen herum entstehen und die Meinungsäußerungen die Grenzen des Zulässigen streifen oder gar überschreiten

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 83

("hate speech").

Mehr Transparenz als demokratische Notwendigkeit

Diese Bemerkungen haben deutlich gemacht, dass Intermediäre sowohl demokratisch wünschenswerte als auch bedenkliche Entwicklungen unterstützen können. Dies soll nicht als Ausdruck wissenschaftlicher Unentschlossenheit verstanden werden – es gibt schlicht einfach nicht "die eine Wirkung" von Medien beziehungsweise Intermediären auf ihre Nutzerinnen und Nutzer. Anders gesagt: Ob Intermediäre nun dabei helfen, die gesellschaftliche Vielfalt abzubilden und so demokratische Meinungs- und Willensbildung zu fördern, oder ob sie den Zerfall von gesellschaftlicher Öffentlichkeit vorantreiben, hängt von einer Vielzahl von Faktoren ab. Zahlreiche empirische Studien der vergangenen Jahre haben Belege dafür geliefert, dass etwa die Anhängerinnen und Anhänger von Verschwörungstheorien oder politisch extremen Positionen tatsächlich in ihre eigenen abgeschotteten Informationswelten abtauchen können. Dies ist aber nicht zwangsläufige Folge der Nutzung von Intermediären, denn für andere Nutzerinnen und Nutzer fördern sie die ungeplante, teils auch überraschende Konfrontation mit Informationen, wirken also potenziell horizonterweiternd.

Hinzu kommt, dass sich nur ein sehr kleiner Anteil der Deutschen vorrangig oder gar ausschließlich in den sozialen Medien über Nachrichten zu aktuellen Themen informiert. Die Informationsrepertoires der meisten Bürgerinnen und Bürger enthalten nach wie vor auch publizistische Medienangebote. Nichtsdestotrotz ist es wichtig, von den Betreibern der Intermediäre Transparenz über ihre Funktionsweise und die Bereitschaft zur Übernahme von Verantwortung einzufordern. Denn auf lange Sicht ist es demokratisch nicht tragbar, wenn ein Bestandteil gesellschaftlicher Öffentlichkeit und Meinungsbildung der gesellschaftlichen Kontrolle und Gestaltung entzogen bleibt.

Weiterführende Quellen:

• Hasebrink, Uwe: Meinungsbildung und Kontrolle der Medien (http://www.bpb.de/gesellschaft/ medien-und-sport/medienpolitik/172240/meinungsbildung-und-kontrolle-der-medien). In: Bundeszentrale für politische Bildung (Hg.) Dossier Medienpolitik (2016).

• Hölig, Sascha/Uwe Hasebrink: Reuters Institute Digital News Report 2018 – Ergebnisse für Deutschland. Arbeitspapiere des Hans-Bredow-Instituts Nr. 44, 2018 (PDF (https://www.hans- bredow-institut.de/uploads/media/Publikationen/cms/media/t611qnd_44RDNR18_Deutschland.pdf)).

• Schmidt, Jan: Social Media. 2. Auflage. Wiesbaden 2018.

• Schmidt, Jan-Hinrik et al.: Zur Relevanz von Online-Intermediären für die Meinungsbildung. Arbeitspapier des Hans-Bredow-Instituts, Nr. 40, 2017 (PDF (https://hans-bredow-institut.de/ uploads/media/default/cms/media/67256764e92e34539343a8c77a0215bd96b35823.pdf)).

• Schweiger, Wolfgang et al.: Algorithmisch personalisierte Nachrichtenkanäle. Begriffe, Nutzung, Wirkung. Wiesbaden 2019.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 84

Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/ de/ (http://creativecommons.org/licenses/by-nc-nd/3.0/de/) Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc- nd/3.0/de/ Autor: Jan-Hinrik Schmidt für bpb.de

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 85

Digitale Desinformation und Soziale Medien

2.5.2019

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 86

Warnen oder Löschen: Wie sollen Plattformen mit Falschmeldungen verfahren?

Von Philipp Müller 2.5.2019 ist Akademischer Rat am Institut für Medien- und Kommunikationswissenschaft der Universität Mannheim. Seine Arbeitsschwerpunkte liegen in den Bereichen politische Kommunikation, Rezeption & Wirkung journalistischer Medienangebote sowie Medienwandel & Digitalisierung.

Was unternehmen Facebook, Twitter und Co. gegen Desinformation? Sollen sie ihre Nutzer nur vor Falschmeldungen warnen oder diese und andere problematische Inhalte direkt entfernen? Einige Maßnahmen sind nützlich, andere eher kontraproduktiv.

Soziale Netzwerkseiten (SNS) im Internet ziehen (neben vielen wünschenswerten) eine ganze Reihe problematischer Inhalte an: Es finden sich auf den Seiten Beleidigungen, Diskriminierungen, Verschwörungstheorien, politische Propaganda und Falschmeldungen. Doch welche Maßnahmen erscheinen dagegen angebracht und sinnvoll? Vor allem Facebook hat in den vergangenen Jahren verschiedene Versuche unternommen, einer wachsenden öffentlichen Debatte zu dieser Frage zu begegnen und gleichzeitig die prinzipielle Zugangsoffenheit für jede Art von Inhalten zu erhalten. Die Ideen reichen dabei von der Zusammenarbeit mit sogenannten "Fact-Checking"-Partnern, die inhaltlich zweifelhafte Botschaften nachrecherchieren, bis hin zu einer Anpassung der Algorithmen, die darüber entscheiden, welche Inhalte Nutzern angezeigt werden. Doch der Grundton der öffentlichen Debatte bleibt kritisch und scheint sich vor allem Löschungen problematischer Inhalte zu wünschen. Damit soziale Netzwerkseiten dies konsequenter angehen, hat die Bundesregierung im Jahr 2017 eigens ein Gesetz erlassen, das Netzwerkdurchsetzungsgesetz (NetzDG).

Bei Beleidigungen, Verleumdungen oder Volksverhetzung scheint der Fall eindeutig. Derartige Äußerungen verstoßen gegen geltendes Recht und müssen schon allein deshalb von den Plattformen genommen werden. Streiten lässt sich hier lediglich darüber, ob die Entscheidung, wann ein solcher Straftatbestand erfüllt ist, von den Plattform-Betreibern autark getroffen werden kann und sollte, oder ob dies nicht in jedem Einzelfall ein Gericht zu entscheiden hätte.

Wenn es hingegen um bewusst verbreitete Falschmeldungen geht, die derzeit unter dem Begriff "Fake News" durch die öffentliche Debatte geistern, ist die Lösung weniger klar. Denn im Rahmen der Meinungsfreiheit steht es in demokratischen Staaten, aus gutem Grund, jedem frei auch Unwahrheiten zu behaupten, sofern diese Behauptungen keinem anderen direkt schaden. Dies ist unter anderem deshalb so geregelt, weil es im Einzelfall gar nicht so einfach ist, eindeutig festzulegen, ob eine Aussage wahr oder unwahr ist. Würde nun das Verbreiten der Unwahrheit per se unterbunden, könnte dies zur Unterdrückung gesellschaftlich randständiger, aber nicht unbedingt unwahrer Auffassungen und Behauptungen beitragen.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 87 Problemfall "Overblocking"

Forschungsergebnisse legen nahe, dass Falschmeldungen eher geglaubt werden, wenn sie das bereits vorhandene Weltbild ihrer Leser bestätigen, als wenn sie ihm widersprechen.[1] Jedoch bedeutet dies dennoch, dass von jeder zusätzlichen Verbreitung ein schädliches Wirkpotential ausgehen kann, wenn nur die richtige Leserin oder der richtige Leser erreicht wird. Insofern erscheint es wünschenswert, dass eindeutig als falsch identifizierbare Meldungen so wenige Nutzer erreichen wie möglich. Das Löschen von Falschmeldungen ist dennoch mit Vorsicht zu genießen ist. Denn oft ist nicht eindeutig nachweisbar, ob eine Aussage wahr ist. Die Wissenssoziologie legt zudem nahe, dass es immer auch vom kulturellen und historischen Kontext abhängt, ob eine Aussage in der Gesellschaft für wahr gehalten wird.[2] Bei einer rigiden Löschung vermeintlicher Unwahrheiten auf sozialen Netzwerkseiten könnten daher auch eigentlich wahre Inhalte gelöscht werden. Man spricht hier von "Overblocking".

Das Problem verschärft sich, wenn die Entscheidung darüber, welche Inhalte gelöscht werden, in der Hand von Unternehmen mit wirtschaftlichen Eigeninteressen liegt. Das 2017 in Kraft getretene NetzDG verpflichtet SNS-Betreiber unter Androhung hoher Geldstrafen dazu, Inhalte, die von Nutzern oder Beschwerdestellen als problematisch gemeldet werden, zeitnah zu überprüfen und gegebenenfalls zu löschen. Um drohenden Strafen zu entgehen, könnten die Betreiber daher in größerem Umfang Inhalte löschen, als eigentlich sinnvoll wäre.[3] Die Schaffung einer öffentlichen Ombudsinstanz, der verschiedene Akteure der Zivilgesellschaft angehören und die von den Betreibern vorgenommene Löschungen kontrolliert, erscheint empfehlenswert.

Das wird man doch wohl noch sagen dürfen!

Ein zweites Problem besteht in dem durch Löschungen womöglich entstehenden Eindruck, dass besonders politisch missliebige Inhalte entfernt werden sollen. Die gesamte Debatte um Falschmeldungen im Internet muss vor dem Hintergrund gegenwärtiger politischer Entwicklungen betrachtet werden. Weltweit erleben wir einen Aufschwung rechtspopulistischer Bewegungen, die von einer Verschwörung der gesellschaftlichen Eliten gegen die Interessen des Volkes ausgehen und nationalstaatliche Abschottung fordern. Diese Forderungen richten sich gegen das gesellschafts- wie wirtschaftspolitisch liberale Lager, das das politische Geschehen in den vergangenen Jahrzehnten dominiert hat. Innerhalb dieser Debatte ist der "Fake-News"-Vorwurf zum Kampfbegriff mutiert, um Informationen zu diskreditieren, die von der jeweils anderen Seite stammen.[4]

Wenn nun vor allem solche Falschmeldungen von sozialen Netzwerkseiten gelöscht werden, die der rechtspopulistischen Position Vorschub leisten, könnte dies als neuerlicher Beleg für die unterstellte Elitenverschwörung gedeutet werden, selbst wenn es sich um nachweislich unwahre Inhalte handelt. Dies würde einerseits die rechtspopulistische Argumentation innerhalb ihrer Anhängerschaft stärken und könnte andererseits dazu führen, dass sich ihre Anhänger neue spezialisierte Plattformen zum Meinungsaustausch im Internet suchen, und so eine Aufspaltung gesellschaftlicher Informationsumgebungen vorantreiben.[5] Um kein zusätzliches Öl ins Feuer der gegenwärtigen Debatten zu gießen, sollte eine Löschung von Inhalten daher zurückhaltend vorgenommen werden und ausschließlich dann erfolgen, wenn ein nachweislicher und am besten von einer unabhängigen Stelle überprüfter Gesetzesverstoß vorliegt.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 88 Warnen statt Löschen?

Wenn nun also das Löschen von Inhalten nicht das erste Mittel der Wahl ist, um Falschmeldungen im Internet zu begegnen, wie steht es dann mit Warnhinweisen? Facebook arbeitet zum Beispiel in vielen Ländern mit journalistischen Dienstleistern zusammen, die Hinweise auf über das Netzwerk verbreitete Falschmeldungen liefern und eigene Artikel zum Thema beisteuern, die die Fehlinformationen korrigieren. In Deutschland sind dies der Rechercheverbund Correctiv sowie seit März 2019 die Deutsche Presseagentur (https://de.newsroom.fb.com/news/2019/03/dpa_faktenpruefer/). Die auf diese Weise als Falschmeldung identifizierten Inhalte werden von Facebook nicht gelöscht, jedoch algorithmisch abgewertet und Nutzern dadurch mit einer geringeren Wahrscheinlichkeit angezeigt. Zudem erhalten Nutzer auf Facebook, anders als auf Twitter, zwei Arten von Warnhinweisen:

• Wenn sie einen von Fact-Checkern angezweifelten Beitrag teilen und damit weiterverbreiten wollen, erscheint eine Pop-Up-Meldung die darauf hinweist, dass es sich um eine angezweifelte Meldung handelt

• Wenn sie einen angezweifelten Beitrag betrachten erscheinen darunter Links zu korrigierenden Artikeln der Fact-Checking-Partner unter der Überschrift "Mehr zum Thema." Ursprünglich hatte Facebook hierfür eine deutlichere Markierung verwendet: Ein rotes Warnsymbol und der Hinweis " Von Faktenprüfern angezweifelt" erschienen direkt unter der Meldung. Diese Variante (https:// newsroom.fb.com/news/2017/12/news-feed-fyi-updates-in-our-fight-against-misinformation/) wurde allerdings bald wieder aufgegeben.

Ein großes Problem besteht aber darin, dass Nutzer Warnhinweise als Bevormundung erleben und mit Wut und Trotz reagieren können. In der psychologischen Literatur wird dieses Phänomen Reaktanz genannt.[6] Wenn Menschen ihre persönlichen Handlungsspielräume als von außen eingeschränkt empfinden, reagieren sie mit Verärgerung und führen trotzig das beabsichtigte Verhalten erst recht durch. Im Kontext persuasiver (überredende) Medienbotschaften kann ein sogenannter "Boomerang- Effekt" die Folge sein: Wenn Nutzer merken, dass sie, zum Beispiel durch einen Warnhinweis, in eine bestimmte Richtung überzeugt werden sollen (man spricht hier von "Persuasionswissen"i[7]), gehen sie von einem illegitimen Beeinflussungsversuch aus und vertrauen umso stärker ihrer ursprünglichen Überzeugung.

Gleichzeitig lässt sich hinterfragen, ob ein Warnhinweis, der lediglich mit "Mehr zum Thema " überschrieben ist, überhaupt als Korrektur zur Kenntnis genommen wird. Auf Nachrichtenseiten im Internet ist es inzwischen weit verbreitet, am Ende eines Artikels oder schon im Textlauf Hinweise auf weiterführende Artikel zu einem Thema zu platzieren. Inhaltlich enthalten diese anderen Artikel üblicherweise vertiefende, aber eben gerade nicht vollständig widersprüchliche Informationen zu einem Thema. Die seit Ende 2017 von Facebook eingesetzten Warnhinweise entsprechen in der Aufmachung diesen Verweisen auf andere Artikel und machen nur bei genauerem Hinsehen und Lesen deutlich, dass sie inhaltlich gegenläufige Informationen beinhalten. Diese Warnungen könnten so dezent sein, dass sie in vielen Fällen schlicht nicht auffallen.

Ein drittes Problem für die Effektivität von Warnhinweisen ergibt sich aus dem sogenannten "Sleeper "-Effekt.[8] Hierbei handelt es sich um die schon in den 1950er Jahren gemachte Beobachtung, dass sich Menschen nach der Rezeption von Nachrichteninhalten oft nach einer gewissen Zeit zwar noch an die Botschaft selbst erinnern, aber vergessen haben, aus welcher Quelle sie eine Information hatten und wie sie diese Quelle zum Zeitpunkt der Rezeption bewertet haben. Dies bedeutet: Einmal gelesene Warnhinweise könnten eher in Vergessenheit geraten als die eigentlichen Inhalte einer Falschmeldung.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 89 Zwischen öffentlicher Aufgabe und algorithmischer Selektion

Anhand der hier zusammengetragenen Argumente lässt sich schlussfolgern, dass das Löschen eine Reihe problematischer Folgen haben kann, da es einerseits in die Meinungsfreiheit eingreift und andererseits in populistischen Diskursen als Beleg für eine gesellschaftliche Elitenverschwörung verwendet werden könnte. Gleichzeitig müssen natürlich Meldungen, die gegen geltendes Recht verstoßen, weil sie zum Beispiel Verleumdungen oder Volksverhetzung enthalten, gelöscht werden. Dieses Mittel sollte jedoch sparsam und nicht in Eigenverantwortung von den Plattform-Unternehmen umgesetzt werden. Hier handelt es sich vielmehr um eine öffentliche Aufgabe.

Auch bei Warnhinweisen sind Zweifel angebracht. Sind sie zu drastisch formuliert, könnten sie Reaktanz erzeugen. Sind sie zu schwach formuliert, könnten sie überlesen werden. Zudem könnten sie über längere Zeiträume in Vergessenheit geraten. Dennoch kann nicht ganz auf sie verzichtet werden. Insbesondere Warnhinweise vor der Weiterverbreitung, also dem Teilen, von Falschmeldungen erscheinen angezeigt, da die persönliche Empfehlung von Nutzer zu Nutzer einen der zentralen Mechanismen bei der Verbreitung von Falschmeldungen im Internet darstellt.[9]

Ein weiterer Ansatzpunkt, um die Verbreitung von Falschmeldungen einzudämmen, besteht in der algorithmischen Selektion. Vorprogrammierte Entscheidungsregeln definieren, welche Inhalte Nutzer auf SNS-Plattformen mit welcher Wahrscheinlichkeit angezeigt bekommen. Aus demokratietheoretischer Sicht erscheint es wünschenswert, dass hierbei eine Vielfalt von Informationsquellen, Themen und Meinungen Aufmerksamkeit erfährt. Gleichzeitig ist es jedoch möglich, auf diese Weise ganz ohne Löschungen und Warnhinweise die Verbreitung von eindeutig als falsch identifizierten Informationen erheblich einzuschränken. Facebook hat dies, nach eigenen Angaben, in jüngerer Zeit verstärkt umgesetzt (https://de.newsroom.fb.com/news/2019/03/dpa_faktenpruefer/). Offenbar mit Erfolg, denn eine Studie (http://arxiv.org/abs/1809.05901) aus den USA zeigt, dass der Anteil von Falschmeldungen auf Facebook seit 2017 erheblich zurückgegangen ist, während er gleichzeitig auf Twitter weiter anstieg.

Diese unterschiedlichen Entwicklungen der beiden sozialen Netzwerkseiten weisen einmal mehr darauf hin, wie problematisch es sein kann, dass die wenigen zentralen Informationsplattformen im Internet in der Hand privatwirtschaftlich arbeitender und der Allgemeinheit nur bedingt rechenschaftspflichtiger Unternehmen liegen. So bleibt es letztlich den Entscheidungen dieser Unternehmen überlassen, ob und welche Maßnahmen gegen die Verbreitung von Falschinformationen getroffen werden.

Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/ de/ (http://creativecommons.org/licenses/by-nc-nd/3.0/de/) Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc- nd/3.0/de/ Autor: Philipp Müller für bpb.de

Fußnoten

1. Siehe Kunda,Ziva: The case for motivated reasoning. Psychological Bulletin, 108(3), 1990, S. 480-498 und Nickerson, Raymond S.: Confirmation bias: A ubiquitous phenomenon in many guises. Review of General Psychology, 2(2), 1998, S. 175-220. 2. Berger, Peter L./Luckmann, Thomas: Die gesellschaftliche Konstruktion der Wirklichkeit. Eine Theorie der Wissenssoziologie. Frankfurt a. M. 1969. 3. Vgl. Müller, Philipp/Denner, Nora: Was tun gegen "Fake News"? Eine Analyse anhand der Entstehungsbedingungen und Wirkweisen gezielter Falschmeldungen im Internet (2. Auflage). Potsdam-Babelsberg 2019, Friedrich-Naumann-Stiftung für die Freiheit. 4. Vgl. Waisbord, Silvio: Truth is what happens to news. On journalism, fake news, and post-truth. Journalism Studies, 19(13), 2018, S. 1866-1878. 5. Siehe Müller, Philipp: Polarisierung des Publikums. Wie sich die Beziehung zwischen Journalismus

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 90

und Bürgern verändert – und warum. In: Limbourg, Peter/Grätz, Ronald (Hg.): Meinungsmache im Netz: Fake News, Bots und Hate Speech, Göttingen 2018, S. 33-43. 6. Siehe Brehm, Jack Williams: A Theory of Psychological Reactance. New York 1966. 7. Siehe Kumkale, G. Tarcan/Albarracín, Dolores: The sleeper effect in persuasion: A meta-analytic review. Psychological Bulletin, 130(1), 2004, S. 143-172. 8. Siehe Kumkale, G. Tarcan/Albarracín, Dolores: The sleeper effect in persuasion: A meta-analytic review. Psychological Bulletin, 130(1), 2004, S. 143-172. 9. Siehe del Vicario, Michaela et al.: The spreading of misinformation online. Proceedings of the National Academy of Sciences of the United States of America, 113(3), 2016, S. 554-559.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 91

Über die "Messengerisierung" der Politik

Von Adrienne Fichter 2.5.2019

ist Politologin und Redakteurin beim Schweizer Online-Magazin Republik.ch

Messenger-Apps werden immer beliebter. Aber führt die Verlagerung der Kommunikation in geschlossene Kanäle zum Tod der digitalen politischen Öffentlichkeit?

Das mobile Netz ist dank der weiten Verbreitung von Smartphones fast allgegenwärtig. Die Beliebtheit von sogenannten Messenger-Apps wie WhatsApp, Facebook Messenger und dem chinesischen Dienst WeChat steigt weltweit. Die Kehrseite dieser Entwicklung: Es findet ein Rückzug aus den öffentlichen Zonen statt. Im Vergleich zum Vorjahr haben Facebook-Nutzer schon im Jahr 2016 rund 30 Prozent weniger eigene Inhalte öffentlich geteilt (https://www.mavrck.co/8-user-generated-content- trends-we-learned-from-25-million-facebook-posts-report). Dazu za hlen alle möglichen Postings von Ferienfotos über Katzenvideos bis zu Medienartikeln. Insbesondere jüngere Social-Media-Nutzer haben begonnen, sich von Facebook zurückzuziehen. Andere wenden sich "geschlossenen Gruppen " innerhalb von Facebook zu. Doch könnte diese Entwicklung fu r Marc Zuckerberg in einem kommerziellen Desaster enden. Denn die "populärsten Messenger (Messenger und WhatsApp) gehören zum Facebook-Imperium, jedoch la sst sich mit ihnen aktuell noch nicht annähernd das erwirtschaften, was Facebook mit seinem guten alten News Feed verdient", kommentiert der Digitalexperte Martin Giesler (https://martinfehrensen.de/2017/02/19/facebook-pivoting-welche-fuer- facebook-existentiellen-ueberlegungen-hinter-zuckerbergs-manifest-stecken-analyse) den anhaltenden Trend. Die Überlegung ist einleuchtend: Im persönlichen Chat wäre dauernde Werbeunterbrechung irritierend. Gleichzeitig schrumpft das Publikum der Netzwerke, in denen Werbekampagnen eingeblendet werden könnten. Dies könnte früher oder später die zahlreichen Werbekunden verärgern. Doch was bedeutet die "Messengerisierung" unserer zwischenmenschlichen Kommunikation im politischen Kontext?

Reaktion auf das Klima der politischen Diskussion

Diese "Rückzugsmanöver" sind eine Antwort auf die Auswüchse in den Kommentarspalten und Social Media. Dort wurde in den letzten Jahren der Nährboden für diese Gefechte gesät: Falschnachrichten, menschenähnliche Roboterprofile und ein aufgeheiztes Diskussionsklima führen dazu, dass sich immer mehr Nutzer in ihren sozialen Komfortzonen nun nicht mehr wohlfühlen. Die Newsfeeds wurden in den letzten Jahren regelrecht politisiert. Eine Studie des Pew Research Center (https://www. pewinternet.org/2016/10/25/the-political-environment-on-social-media) zeigte, dass eine Mehrheit der Social-Media-Nutzer während des US-Wahlkampfs 2016 unter der aggressiven Stimmung in ihren Netzwerken gelitten hatte. Die User nahmen Facebook und Konsorten als politische Kampfzone wahr. 83 Prozent der Befragten in den USA möchten jedoch nicht mit politisch konträren Sichtweisen oder aggressiven Äußerungen konfrontiert werden, wenn sie durch ihren Feed scrollen. Sie versuchen diese Postings weitgehend zu ignorieren. Über die Hälfte der befragten Nutzer empfinden die Gespräche auf Social Media als gehässiger, weniger respektvoll und weniger zivilisiert als andere Formen des politischen Dialogs. Und ein Drittel begann seinen Newsfeed aufgrund der angezeigten politischen Inhalte zu kuratieren: Bei Freunden mit pointierten politischen Aussagen, die der eigenen Haltung widersprechen, greifen diese Personen auf die Einstellungsoption "Weniger davon" zuru ck. Nur eine Minderheit der befragten Nutzer geht freiwillig auf konträre Standpunkte ihres Freundeskreises ein. Es zeigt sich, dass der Facebook-Newsfeed langfristig immer weniger als Plattform der politischen Auseinandersetzung taugt, weil Meinungsverschiedenheiten immer weniger toleriert werden. Eine Verlagerung auf WhatsApp und Facebook Messenger könnte aus einer normativen und politisch-

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 92 philosophischen Perspektive noch fatalere Folgen haben. Konträre Sichtweisen zu einem Thema werden so unsichtbar. Der Öffentlichkeit wird die Meinung entzogen. In geschlossenen Anwendungen könnten politische Monokulturen gedeihen. Hier ist man unter seinesgleichen. Der digitale öffentliche politische Diskurs stirbt dadurch.

Fo rderung des Filterblasentrends

Historisch gesehen bildete sich eine frühbürgerliche Öffentlichkeit in den Salons und Kaffeehäusern des 18. Jahrhunderts heraus. In den darauffolgenden Jahrhunderten stellten vorwiegend die Massenmedien Öffentlichkeit her, wobei das Publikum in der Mehrzahl aus passiven Lesern bestand. Der Siegeszug von Blogs, Suchmaschinen und sozialen Medien im 21. Jahrhundert läutete das Zeitalter der digitalen Netzwerkmedien ein. Sie brachten eine Auflösung von Publikationshierarchien mit sich, da nun jeder zum potenziellen Inhaltsproduzenten avancieren konnte. Netzaktivisten hofften, eine kritische Internet-Gegenöffentlichkeit heranbilden zu können. Doch die normativen Ideale der Öffentlichkeit wie eine breite Beteiligung der Bevölkerung oder die Kraft des besseren Arguments haben sich auf Facebook, Twitter und anderen Plattformen nur unzureichend durchgesetzt. Der Diskurs ist fragmentiert: Es gibt verschiedene Profil- und Kommentaröffentlichkeiten. Dabei profitieren diejenigen Exponenten, die am meisten Lärm machen. Doch immerhin vermochte sich die interessierte Öffentlichkeit so ein Stimmungsbild zu gewissen Themen zu verschaffen und kann auch die Überlegungen des twitteraffinen US-Präsidenten live mitverfolgen. Der gegenwärtige Trend zur "Messengerisierung" würde diese Errungenschaften wieder zunichtemachen, denn er verletzt eine gemäß dem Philosophen Jürgen Habermas unabdingbare Voraussetzung für die Herstellung von Öffentlichkeit: das Prinzip der Schrankenlosigkeit. Niemand darf prinzipiell vom Diskurs ausgeschlossen werden. Ebenso wäre ein weiteres konstituierendes Merkmal von Öffentlichkeit nicht mehr erfüllt: dass ein Sprecher mit einem Publikum kommuniziert, dessen Grenzen er nicht bestimmen kann. Auf den Messenger-Plattformen schottet man sich indes bewusst ab und kennt seinen Empfängerkreis. In einer geschlossenen Gruppe auf Facebook müssen Nutzer einen Antrag auf Aufnahme stellen. Der Vorteil dabei ist, dass die Administratoren die Kontrolle über ihre Mitglieder und die Regeln der zwischenmenschlichen Kommunikation definieren können. Dies begünstigt die Durchsetzung von einfachen Regeln und Netiquette. Doch die geschlossenen Gruppen befördern auch die Homogenisierung und Separierung von anderen politischen Communities. Wesentliches Merkmal ist die Abschottung nach außen. In einer eigenen Gruppe werden kritische Voten vielleicht geduldet. Doch meist sortieren sich politisch andersdenkende Personen selber aus, indem sie auf Facebook eine geschlossene Gruppe, die ihrer Meinung widerspricht, gar nicht erst aufsuchen. Oder sie erhalten dermaßen viel Gegenwind auf ihre Beiträge, dass sie sich innerhalb kurzer Zeit selbst verabschieden. Kurz: Die "Messengerisierung" befördert den Filterblasentrend der sozialen Medien sowie die zunehmende Personalisierung der politischen Kommunikation. Im Schutzraum dieser Apps kann man sich ungestört mit Gleichgesinnten austauschen. Es gelten eigene Konventionen und Regeln. Kein Algorithmus sortiert vor oder filtert eingehende Beiträge aus. Verbale Angriffe von unbekannten Nörglern sind per se ausgeschlossen. Die privaten Gespräche sind dann vielleicht auch politischer Natur. Doch sie bleiben privat. Indem der Öffentlichkeit die Meinung entzogen wird, stirbt auch der Traum der Internetpioniere: das Netz als freie und vitale Arena für Debatten. Das Ideal des virtuellen Markplatzes, wo sachlich und beratend politische Meinungen nach dem Vorbild der Antike debattiert werden, rückt damit in weite Ferne. Medien, Politologen und andere Beobachter haben hier keine Chance, geäußerte Standpunkte nachzuvollziehen, da diese verborgen bleiben.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 93 Wo Falschmeldungen munter gedeihen

Mit der "Messengerisierung" wird die Polarisierung im sozialen Netz weniger sichtbar. Extreme Meinungen verlagern sich in dunkle Ecken. Messenger-Apps und Facebook- Gruppen sind auch Sammelbecken für Personen, die ihre teils extremen Ansichten aufgrund verschiedener Normen nicht öffentlich äußern mochten. Beispielsweise organisierten sich Trump-Anhänger im Netz, um den französischen Präsidentschaftswahlkampf "aufzumischen". Über eine Chat-Gruppe bei Discord (https://www.buzzfeednews.com/article/josephbernstein/discord-chat-startup-braces-for-the-alt-right) tauschten sie Anleitungen und Materialien für gezielte Falschnachrichten und Memes gegen die etablierten Parteien aus. Ihr Ziel ist es, weltweit Chaos mittels digitaler Desinformation zu stiften.

Falschnachrichten gedeihen in diesem Umfeld noch mehr, sie werden im geschützten Kokon nun auf privatem Weg übermittelt. Besonders beliebt sind alternative Nachrichtenquellen und Blogs von Verschwörungstheoretikern. "Quellen der ‚etablierten Medien‘ gelten dann als Lügen, wenn sie den eigenen Vorstellungen widersprechen", schreibt ein Reporter bei Vice (https://www.vice.com/de/article/ jpmk97/wie-der-rechtsterrorismus-auf-facebook-organisiert-wird), der während mehrerer Wochen in rechtsextremen Facebook-Gruppen mit anderen Mitgliedern im Rahmen eines Experiments interagierte und deswegen anonym bleiben wollte. Er beschreibt im Text den Propagandarausch, in den die Mitglieder der Gruppe durch gegenseitiges Liken und Bestärken hineingeraten. Medien haben keine Chance, hierher vorzudringen und die frei erfundenen propagandistischen Geschichten zu dekonstruieren. Die Maßnahmen der Plattform gegen Desinformation greifen hier nämlich nicht. Fact- Checking-Organisationen können lediglich Inhalte überprüfen, die auf Profilen und Pages öffentlich geteilt wurden. Sie sind dabei auf die Mithilfe der Community angewiesen. Wird ein Posting von vielen Usern als "Falschnachricht" deklariert, so nehmen sich Facebook und die Partnerorganisationen dieses Tatbestands an. Im geschlossenen Raum aber sind Gleichgesinnte "unter sich". Es ist eher unwahrscheinlich, dass User in diesem Umfeld die Inhalte von anderen Gruppenmitgliedern als Falschnachrichten deklarieren.

Der Trend zur Personalisierung der politischen Wahlkampfwerbung und zur Filterblasenbildung in den sozialen Medien wird derzeit verstärkt durch eine weitere Entwicklung, die "Messengerisierung" der Kommunikation: Es könnte sein, dass wir immer mehr politische Fragen auf bilateralem Kommunikationsweg verhandeln. Kommentarspalten und öffentliche soziale Netzwerke dienten Medien und Forschern bislang noch als Stimmungsbarometer für gesellschaftliche Trends. Diese virtuellen "Labor-Biotope" trocknen immer mehr aus. Setzt sich der gegenwärtige Trend fort, wird in Zukunft vermehrt in geschlossenen Kanälen gechattet. Die Vielfalt von bestehenden Meinungen und Argumenten zu einem Thema würde dadurch nicht mehr sichtbar. Nur noch die beliebtesten und frechsten Memes werden an die Oberfläche gespült. Doch für das Funktionieren der Demokratie brauchen wir eine gemeinsame öffentliche Kommunikationssphäre, und wir brauchen Kenntnis aller vorhandenen politischen Positionen. Nur so gelangen wir überhaupt zu einem gemeinsamen Problemverständnis und wissen über die Diversität der Meinungen zu einem Thema Bescheid. Das sind Voraussetzungen, die zentral sind für eine freie Demokratie.

Bearbeiteter Beitrag aus dem von der Autorin herausgegebenen Sammelband "Smartphone- Demokratie" Copyright © 2017 by NZZ Libro

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 94

Neue Herausforderung "Dark Social"? Interview mit Miro Dittrich vom Projektverbund „Debate//de:hate“ der Amadeu Antonio Stiftung

Von Erik Meyer 2.5.2019 ist Politikwissenschaftler und arbeitet als freier Journalist und Dozent zur Digitalisierung in Politik, Pop und Erinnerungskultur. Er ist Autor von „Zwischen Partizipation und Plattformisierung: Politische Kommunikation in der digitalen Gesellschaft“ (2019)

Im Fokus der Diskussion um Desinformation stehen häufig soziale Netzwerke wie Facebook. Doch die Nutzer wandern zunehmend zu anderen Angeboten ab, in denen gar nicht mehr öffentlich kommuniziert wird. Stellt "Dark Social" also eine neue Herausforderung dar?

Interview mit Miro Dittrich vom Projektverbund „Debate//de:hate“ der Amadeu Antonio Stiftung. De: hate ist dabei für die Analyse und Erarbeitung von Handlungsempfehlungen verantwortlich. Dazu betreibt das Projekt qualitatives und quantitatives Monitoring von menschenverachtenden Phänomenen wie Hate Speech in sozialen Medien.

Die Diskussion um digitale Desinformation konzentriert sich häufig auf deren Verbreitung durch soziale Medien wie Facebook und Twitter. Dort würden viele Fake News zirkulieren oder Social Bots die Meinungsbildung manipulieren. Was hat es demgegenüber mit der Rede von “Dark Social” auf sich? Welche Kanäle sind damit gemeint?

Dittrich: "Dark Social" wurde als Schlagwort zuerst 2012 vom amerikanischen Journalisten Alexis C. Madrigal verwendet. Hier ging es um nicht klar zuordnungsbare Klicks auf Webseiten, etwa von Messaging-Apps und E-Mails. Anders als bei Links beispielsweise über Facebook oder Twitter war den Betreibern der Seiten nicht klar, woher ihre Besucher kamen. In der aktuellen Debatte wird der Begriff jedoch für nicht eindeutig öffentliche Kommunikation verwendet, also für abgeschlossene Server, wie etwa auf der für Gamer gedachten Plattform Discord, hauptsächlich aber für private Messenger wie etwa Whatsapp oder Telegram.

Da sich online eine Ermüdung für die in der breiten Öffentlichkeit stattfindende Kommunikation zeigt, haben diese Kommunikationsformen deutlich an Bedeutung gewonnen. Eine zunehmende Tribalisierung und Fragmentierung der Onlinewelt bestärkt diese Entwicklung weiterhin. Menschen suchen wieder vermehrt nach interessenbezogenen Communitys und wenden sich immer mehr von den großen Plattformen ab.

Warum sind diese Kanäle für die Verbreitung von Falscherzählungen besonders relevant? Betrifft dies eher die private Verbreitung von Gerüchten wie beim Mobbing oder gibt es auch politische Akteure, die dort Desinformation strategisch kommunizieren?

Dittrich: Wir haben es dort mit beidem zu tun. Das private Verbreiten von Gerüchten, das es schon immer gab, wird durch diese technische Lösung stark beschleunigt. Falscherzählungen wirken zudem viel glaubwürdiger, wenn sie von einer uns bekannten Person geteilt werden. Dazu nutzen aber auch politische Akteure diese Kanäle sehr gezielt. Die direkte Kommunikation auf das Handy per Benachrichtigung beschleunigt die Verbreitung dieser Nachrichten. So muss die Zielgruppe nicht erst in ihrem Nachrichtenfeed bis zum entsprechenden Beitrag scrollen. Dies erklärte auch zu einem Teil die schnelle Mobilisierung um die rechtsextremen Demonstrationen wie etwa in Chemnitz 2018, das erste Großevent zu dem eine Vielzahl an Telegram- und Whatsapp-Kanäle und -Gruppen aktiv waren.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 95

Mobilisiert wurde dort stark mit drei Falscherzählungen: eine verhinderte Vergewaltigung, 25 Messerstiche und ein zweiter Toter.

Für die Verbreitung von Desinformation auf öffentlichen Plattformen sind auch algorithmische Verstärkungseffekte charakteristisch: Inhalte, auf die Nutzer stark reagieren, werden etwa im News Feed von Facebook priorisiert verbreitet. Wie werde ich demgegenüber auf solche Inhalte aufmerksam, wenn sie via Dark Social verbreitet werden?

Dittrich: Beiträge werden hier von Privatpersonen oder größeren Gruppen oder Kanälen weitergeleitet. Der Einstieg in sehr aktive Gruppen ist dadurch niedrigschwellig. Zudem sind diese Gruppen sehr gut vernetzt, sie teilen ihre Beiträge sehr häufig. So landet man schnell in einem Netzwerk mit einem geschlossenen Weltbild, das fundamental geprägt von Falschinformationen ist. Durch die fehlende Öffentlichkeit gibt es zudem keinen Widerspruch oder korrigierende Informationen.

Der Algorithmus auf öffentlichen Plattformen hat aber auch viele Nachteile für die Verbreitenden von Desinformationen. Facebook arbeitet etwa mit dem Recherchekollektiv Correctiv zusammen. Identifizieren diese einen Beitrag als Falschnachricht, wird seine Sichtbarkeit deutlich eingeschränkt. Auch werden auf öffentlichen Plattformen Gemeinschaftsstandards wesentlich konsequenter durchgesetzt, was für Dark Social eher eine seltene Ausnahme darstellt. Falschnachrichten können hier also wesentlich extremer und emotionalisierender formuliert werden, ohne eine Löschung befürchten zu müssen.

In Indien hat via Messengerdienst verbreitete Desinformation sogar eine tödliche Dimension, und es war in einem Fall von “Whatsapp-Killings” die Rede. Ist das ein Einzelfall oder ist generell einen Zusammenhang zwischen der Anonymität von Akteuren, der Aggressivität von Aussagen und der Destruktivität von Auswirkungen zu beobachten?

Dittrich: Die Anonymität ist hierbei nicht der entscheidende Faktor. Das zeigt etwa die Universität Zürich 2016 in der Untersuchung “Digital Social Norm Enforcement: Online Firestorms in Social Media (https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0155923)”. Nach ihren Ergebnissen gaben User, die nicht-anonym auftraten, häufiger Kommentare mit Aggressionen ab. Die Autoren erklären dies durch eine fehlende Erwartung von Konsequenzen und durch eine höhere erwartete Glaubwürdigkeit, wenn sie ihre Aggression mit Klarnamen kommunizierten. Das geschlossene Informationssystem ohne abweichende Informationen dürfte hier entscheidender sein. Dieses Weltbild ist dabei von apokalyptischen Vorstellungen geprägt; etwa der Untergang Deutschlands stehe kurz bevor. Oder es gäbe keine Meinungsfreiheit und Demokratie mehr, Morde und Vergewaltigungen von vermeintlichen Migranten und Geflüchteten würden den Alltag prägen. Da der Staat nicht gewillt wäre, sie zu schützen, baut sich der dadurch entstehende Handlungsdruck in Gewalt und Terror ab.

Facebook arbeitet beispielsweise mit unabhängigen Faktenprüfern zusammen, die Inhalte prüfen, um die Verbreitung von Falschmeldungen auf der Plattform einzudämmen. Gibt es auch bei Dark Social Gegenmaßnahmen der Betreiber beziehungsweise was lässt sich dort generell dagegen tun?

Dittrich: Die bisherigen Versuche fokussieren vor allem die schnelle Verbreitung einzudämmen. Whatsapp hat als Konsequenz der durch Falschinformationen ausgelösten Gewalt in Indien das Weiterleiten von 20 Empfängern auf fünf eingeschränkt. Nach einer Testphase in Indien gilt dies nun weltweit. Weiterhin testet das Unternehmen gerade die Funktion der Rückwärtssuche von Bildern. Zugeschickte Bilder werden direkt aus der App heraus in Googles Bildersuche hochgeladen und dort mit ähnlichen Fotos aus dem Internet abgeglichen. Dadurch können Bilder auf ihre Echtheit und ihren Ursprung überprüft werden. Unter den Suchergebnissen können dann auch vertrauenswürdige Websites zu finden sein, die das Bild bereits als Fälschung enttarnt haben. Da die Kommunikation über private Messenger jedoch meist verschlüsselt stattfindet, sind Unternehmen sehr in ihrem Eingriff in die Nachrichtenflüsse eingeschränkt.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 96

Habe ich als Nutzer sinnvolle Handlungsoptionen, wenn ich via Dark Social mit Desinformation konfrontiert werde?

Dittrich: Unwahrscheinlich klingende Nachrichten können mit einer Internetsuche überprüft werden. Ist die Nachricht wirklich eine aktuelle oder lassen sich vertrauensvolle Quellen dafür finden? Die Rückwärtssuche von Bildern ist ein weiteres effektives Mittel, Falschinformationen zu enttarnen. Zudem gibt es eine Vielzahl an journalistischen Angeboten, die sich gezielt mit dem Überprüfen von Desinformation auf Social Media beschäftigen, etwa der Faktenfinder der Tagesschau, das Recherchekollektiv “Correctiv” oder mimikama.at. Gerade im persönlichen Bereich kann es erfolgreich sein, seine Recherche mit dem Versender der Desinformation zu teilen. In größeren Gruppen ist die Erfolgsaussicht leider sehr gering. Korrekturen werden als “Lügenpresse” abgetan, ignoriert oder es wird zwar eingesehen, dass die Information im Konkreten falsch ist, aber die dahinter liegende Erzählung jedoch stimme. Das auf Falschinformationen gebaute Weltbild bleibt so also erhalten.

Sie beobachten zur Europawahl Desinformationskampagnen in Dark Social. Welche Entwicklungen können Sie bereits jetzt erkennen und Themen spielen eine Rolle?

Dittrich: Eine interessante Entwicklung ist, dass seit Anfang des Jahres das Thema „Umwelt“ eine neue, wichtige Rolle in Desinformationskampagnen eingenommen hat. Leugnungen des menschengemachten Klimawandels treten in einer bis dato nicht vertreten Häufigkeit und Viralität auf. Dies zeigt eine fortschreitende, breite Erosion des Vertrauens in Institutionen, denen wir akkurate Realitätsbeschreibungen zuschreiben. So gibt es zum Klimawandel ja einen klaren wissenschaftlichen Konsensus. Weiterhin sind auch neue Gesetze der Europäischen Union, die auch in der breiteren Bevölkerung Kritik erfahren, ein wichtiges Thema. Die Desinformation dreht sich hier jedoch um eine persönlich wahrgenommene Verfolgung. So wird etwa die Datenschutz-Grundverordnung und Artikel 13 der Urheberreform als Versuch der gezielten Zensur einer politischen Meinung kommuniziert. Vermeintliche Straftaten, die Migranten und Geflüchteten zugeschrieben werden, spielen jedoch weiterhin die wichtigste Rolle für Falschnachrichten.

Bietet Dark Social auch positive Ansatzpunkte für die politische Kommunikation? Welche Chancen sehen Sie für den Kampf gegen Desinformation, Hate Speech und extremistische Inhalte im Netz? Gibt es also nicht nur negative Beispiele, sondern auch Best Practices?

Dittrich: Positiv fand ich etwa die, leider eingestellte, Nachrichten-App “Resi”. Hier wurde man über tagesaktuelle Themen informiert und konnte über Fragen tiefer in Themen einsteigen oder lieber über anderes informiert werden. Das Programm lernte dabei über die eigenen Interessen und änderte das zukünftige Informationsangebot dementsprechend. Ein weiteres Beispiel ist der von Tagesschau und NDR entwickelte Nachrichtendienst Novi. Mit diesem kann man über den Facebook-Messenger, Telegram, Whatsapp oder Skype über aktuelle Nachrichten informiert werden und auch die Bundeszentrale für politische Bildung hat ja einen Infokanal für Messenger, über den man kurze Erklärtexte zu Begriffen aus Politik und Geschichte und Hintergrundinfos zu aktuellen Themen und Debatten erhalten kann. Chat Bots über private Messenger bieten also auch eine große Chance für personalisierte politische Kommunikation. Prinzipiell gibt eine Vielzahl guter Bestrebungen von Plattformbetreibenden, die Probleme auf ihren Plattformen zu lösen. Als um die rechtsextremen Demonstrationen in Chemnitz 2018 die ersten Suchergebnisse auf YouTube zu “Chemnitz” von rechtsextremen Desinformationsvideos dominiert waren, führte Google ein bereits in den USA getestetes Feature ein. Dieses priorisiert bei aktuellen Ereignissen die Videos von vertrauensvollen Medienangeboten. Auch der “Qualitätsfilter” von Twitter hat das Klima auf der Plattform deutlich verbessert. Dieser nutzt eine Vielzahl von Signalen, um die Reichweite von Beiträgen von als toxisch markierten Accounts zu reduzieren. Bei Facebook sehe ich ein ehrliches Interesse in der stetigen Verbesserung ihrer Gemeinschaftsstandards, so etwa in der Deklarierung von weißem Nationalismus und Separatismus als Hassgruppe Ende April 2019. Dadurch ist es verboten, weißen Nationalismus und Separatismus auf der Plattform zu verherrlichen oder zu

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 97 vertreten.

Trotzdem spielen die sozialen Medien immer noch die wichtigste Rolle in der Mobilisierung und Radikalisierung von demokratie- und menschenfeindlichen Einstellungen. Hier gibt es noch sehr viel Handlungsbedarf, und ich würde speziell vor der Hoffnung auf eine schnelle technische Lösung warnen. So sind wir etwa von einer automatisierten Erkennung von Hate Speech noch viele Jahre entfernt. Die zu beobachtende Bewegung hin zu verschlüsselten, nicht öffentlichen Bereichen des Internets erschwert zudem Lösungsansätze und wird uns vor neue, noch komplizierter lösbare Probleme stellen.

Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/ de/ (http://creativecommons.org/licenses/by-nc-nd/3.0/de/) Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc- nd/3.0/de/ Autor: Erik Meyer für bpb.de

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 98

Social Bots: Zwischen Phänomen und Phantom

Von Tobias R. Keller 2.5.2019

ist Assistent am Institut für Kommunikationswissenschaft und Medienforschung der Universität Zürich.

Social Bots sind Computerprogramme, die auf Social Media Plattformen eingesetzt werden, um unterhaltsamen Nonsens, kostengünstig Werbung, aber auch politische Inhalte zu verbreiten. Wenn unklar ist, welches politische Ziel ein Social Bot verfolgt, wird die Angst vor einer Einflussnahme Unbekannter auf politische Prozesse geschürt. Die davon ausgehende Gefahr lässt sich relativieren: Sie ist vor allem der Mensch hinter den Social Bots.

Das Programm Eliza von Joseph Weizenbaum sollte die Möglichkeiten der Kommunikation zwishcen einem Menschen und einem Computer über natürliche Sprache aufzeigen. (© Public Domain) Social Bots werden Computerprogramme genannt, die auf Social Media Plattformen wie beispielsweise Twitter aktiv sind: Sie erstellen oder verbreiten (teil-)automatisiert Inhalte, interagieren mit Menschen über diese Plattformen und verfolgen teilweise das Ziel, menschliches Verhalten zu imitieren oder andere Menschen zu beeinflussen.[1] Einerseits sind sie ein altes Phänomen, das in der Informatik seit Jahrzehnten untersucht wird, andererseits können sie aber auch als neues Phantom betrachtet werden, da Social Media Plattformen ein ideales Habitat für sie bieten, um sie unter anderem auch in politischen Diskursen einzusetzen.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 99 Social Bots als altes Phänomen

Bots steht als Kurzform für Software-Roboter, die in der Informatik seit Jahrzehnten kreiert und untersucht werden.[2] Einer der ersten Bots, der chatten konnte, war Joseph Weizenbaum’s ELIZA.[3] ELIZA imitierte die Kommunikation eines Psychiaters, der nach Rogers praktizierte, was bedeutet, dass sie das vom Menschen Gesagte wiederholte und ihn ermutigte, viel von sich preiszugeben. Obwohl diese Art der Kommunikation den Turing-Test zur Unterscheidung von Mensch und Maschine vermutlich nicht bestanden hätte, befürchteten Psychiater damals von Bots ersetzt zu werden.[4] Seit Beginn also zeichnete sich ihr Potential ab – und das trotz ihrer geringen Reichweite und Überzeugungskraft. Seit dem Aufkommen des Internets und insbesondere von Social Media Plattformen lassen sich Bots einsetzen und unzählige Menschen mit ihrer Kommunikation über Landesgrenzen hinweg erreichen. Social Media Plattformen wie Twitter dienen ihnen als ideales Habitat dafür: Über die öffentlich zugänglichen Schnittstellen dieser Plattform lassen sich Social Bots darauf implementieren. Dafür reichen basale Programmierkenntnisse und es lässt sich dank öffentlich zugänglicher Anleitungen und Vorlagen relativ einfach bewerkstelligen. Je nach Programmierung, können sie voll- oder teilautomatisiert auf Plattformen agieren.

Profitorientierte Unternehmen setzen beispielsweise Chatbots ein, um Kundenanfragen automatisiert zu beantworten. Auf Wikipedia werden tausende von Social Bots eingesetzt, um Einträge automatisiert zu bearbeiten. Auf Twitter werden sie auch genutzt, um täglich populäre Zitate zu verschicken, unterhaltsame Tweets automatisiert zu erstellen oder automatisiert Tweets mit bestimmten Hashtags weiterzuverbreiten. Sie werden auch dazu eingesetzt, um Beiträge vollautomatisiert zu retweeten, sofern ein gewisser Hashtag vorkommt, oder sie folgen gewissen Twitternutzenden, um ihre Popularität größer erscheinen zu lassen als sie tatsächlich ist. Social Bots in ihrer Gesamtheit sind Teil der Entwicklung zu mehr automatisierten Prozessen im Internet im Allgemeinen, aber auch auf Social Media Plattformen im Spezifischen.

Social Bots als neues Phantom

Da sie Computerprogramme sind, schränkt sich ihr Handeln nicht nur auf ein Themenfeld ein; sie lassen sich für verschiedenste Aufgaben in verschiedensten Bereichen einsetzen. Während sie als Chatbots deklariert Kunden über ihre Aufgabe und ihr Wesen im Klaren lassen und nicht als gefährlich betrachtet werden, können sie aber auch als Menschen getarnt in politische Diskurse eingreifen, wodurch sie die öffentliche Meinung verzerren und manipulativ in demokratische Prozesse wirken könnten.

Denn: Social Bots müssen nicht als solche gekennzeichnet werden. Wird ein Porträt eines Menschen für das Profilbild des Social Bots und ein (menschlicher) Name verwendet, sind sie aufgrund ihrer Präsenz potentiell nicht als Social Bot zu entlarven. In ihrer Kommunikation werden sie von Menschen als glaubwürdig, interaktiv und kompetent angesehen[5] und können täuschend menschlich wirken.[6] Wenn also Social Bots koordiniert politische Aussagen verbreiten, kann es so scheinen, als ob das von ihnen verbreitete Anliegen ein authentisches und relevantes ist, das in der Politik berücksichtigt werden sollte. Das schürt Angst und lässt Social Bots wie ein Phantom wirken: Sind die Social Media Nutzenden, mit denen ich mich über Politik unterhalte oder die einen politischen Beitrag mit tausenden von "Likes" populär lassen werden, Menschen oder Social Bots?

Nicht nur machen Social Bots 9 bis 15 Prozent aller Twitternutzenden aus,[7] sie wurden auch in politischen Diskursen weltweit entdeckt:[8] Beispielsweise haben sie rund 20 Prozent des Traffics vor den US-Wahlen 2016 generiert[9], haben in der Brexit-Debatte die "Leave EU"-Kampagne unterstützt [10], wurden mit Fehlinformationen in Verbindung gebracht[11] oder haben in der Bundestagswahl 2017 politische Parteien populärer wirken lassen, als sie sind, und automatisiert Tweets verbreitet.[12] Diese Zahlen und die mitklingenden, potenziellen Gefahren für die Demokratie müssen jedoch in den entsprechenden Kontext gesetzt werden.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 100

Social Bots als aktuelle Herausforderung

Erstens ist es methodisch sehr schwierig, Social Bots zu entdecken. Sofern sie sich nicht selbst als solche bezeichnen, bleibt stets eine Ungewissheit, ob es sich um einen Bot oder um einen Menschen handelt. Um sie dennoch zu identifizieren, werden ganz unterschiedliche Verfahren angewendet: Von Ansätzen, die einen einzelnen Indikator wie die Aktivität eines Accounts evaluiert bis hin zu Methoden, die über tausend Variablen berücksichtigen. Während die einen Methoden sehr transparent das Vorgehen beschreiben, sind andere weniger transparent, was das methodische Dilemma in diesem Forschungsgebiet widerspiegelt: Methoden mit erhöhter Transparenz spielen den Bot-Entwicklenden in die Hände, wodurch sie Social Bots so programmieren können, dass sie die Bot-entdeckenden Verfahren umgehen können. Verringerte Transparenz aber führt dazu, dass unklar ist, ob die Methode Bots zu entdecken vermag und wenn ja, was für Typen von Bots. Das führt zu unterschiedlichen Ergebnissen zur Anzahl und zum Einfluss von Social Bots auf politische Prozesse auf Social Media Plattformen. Es bleibt also ein Katz- und Maus-Spiel zwischen denjenigen, die Bots kreieren, und denjenigen, die sie zu entdecken versuchen.

Zweitens sollten Social Bots nicht als autonome Akteure betrachtet werden. Hinter jedem Social Bot steckt ein Mensch. Sie können einen Social Bot vollautomatisiert – oder nur halbautomatisiert agieren lassen. Wenn ein Mensch viel Einfluss auf die Aktionen eines oder mehrerer Bots übernimmt, kann deren Verhalten nur schwer von koordinierten Aktionen echter Menschen unterschieden werden. Das betrifft das gesamte Spektrum von digitalem "Astroturfing":[13] Wenn authentische oder gekaufte Sympathisanten, Menschen mit mehreren Nutzerkonten (sogenannten "Sockpuppets") oder Mitarbeitende von "Click Farms" engagiert werden – oder eben Social Bots eingesetzt werden, um Social Media Beiträge oder Akteure populärer erscheinen zu lassen, als dass sie eigentlich sind, lässt sich das nur sehr schwer voneinander unterscheiden. Zentral bleiben also (auch) die Fragen, wer welche Ziele verfolgt und wie die Menschen dahinter entdeckt werden könnten.

Drittens sind Social Bots auf Plattformen aktiv, worauf sie weniger Personen erreichen als sie beispielsweise über traditionelle Medienanbieter wie Zeitungen oder das Fernsehen würden. Einerseits bedeutet dies, dass ihr Einfluss auf politische Prozesse lediglich ihr Netzwerk betrifft, andererseits vor allem Social Media Nutzende. Wenn Meinungsführer aus dem Journalismus oder der Politik jedoch Beiträge von Social Bots weiterverbreiten oder die Anzahl "Likes" manipuliert von Social Bots als öffentliche Meinung fehlinterpretieren, könnten Social Bots dennoch eine breitere Schicht der Bevölkerung erreichen und politische Prozesse manipulieren. Es benötigt also auch eine gesellschaftliche Sensibilisierung für die Problematik.

Social Bots als altes Phänomen werden weiterhin Teil der digitalen Welt bleiben, da sie nicht per se eine Gefahr darstellen und deshalb auch nicht per se zu verbieten sind. Als Computerprogramme, die teil- oder vollautomatisiert Beiträge absetzen oder weiterverbreiten werden sie weiterhin aktiv bleiben; als Kunstform, Werbung oder Hilfe. Imitieren sie Menschen und versuchen zentrale politische Prozesse zu manipulieren, könnten sie auch zur Gefahr werden. Sie zu entdecken bleibt jedoch eine Herausforderung, weshalb ihr tatsächlicher Einfluss schwierig einzuschätzen ist – sie wirken vor allem wie ein Phantom. Das fordert WissenschaftlerInnen, Social Media Betreibende sowie die Nutzenden selbst: In der Wissenschaft ist man gefordert, Methoden zu entwickeln, die Social Bots und die Akteure dahinter zu entdecken vermögen. Die Nutzenden mit hoher Reichweite wie beispielsweise JournalistInnen und PolitikerInnen von Social Media Plattformen sollten überlegt Beiträge unklarer Herkunft oder mit zweifelhaftem Inhalt teilen – oder eben nicht weiterverbreiten. Schliesslich sind auch die Betreibenden der Plattformen aufgerufen, den manipulativen Einsatz von Social Bots zu verhindern. PolitikerInnen können hierbei unterstützend wirken, indem sie beispielsweise Social Media Plattformen weiterhin kritisch beobachten, bei Bedarf deren Regulierung fordern und selbst vorbildlich auf den Plattformen agieren.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 101

Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/ de/ (http://creativecommons.org/licenses/by-nc-nd/3.0/de/) Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc- nd/3.0/de/ Autor: Tobias R. Keller für bpb.de

Fußnoten

1. Vgl. Ferrara, E. et al.: The rise of social bots. In: Communications of the ACM, 7/2016, S. 96-104. 2. Vgl. Subrahmanian, V.S. et al.: The DARPA Twitter Bot Challenge. In: Computer, 6/2016, S. 38-46. 3. Weizenbaum, J.: Computer power and human reason: From judgment to calculation. San Francisco 1976. 4. Vgl. Saygin, A. P./Cicekli, I./Akman, V.: Turing Test: 50 Years Later. In: Minds and Machines, 4/2000, S. 463-518. 5. Vgl. Edwards, S. et al.: Is that a bot running the social media feed? Testing the differences in perceptions of communication quality for a human agent and a bot agent on Twitter. In: Computers in Human Behavior, 33, 2014, S. 72-376. 6. Vgl. Everett, R. M./Nurse, J. R. C./Erola, A.: The anatomy of online deception. In: Ossowski, S. (Hg.): The 31st Annual ACM Symposium,, 2016, S. 1115–1120. 7. Vgl. Varol, O. et al.: Online Human-Bot Interactions: Detection, Estimation, and Characterization. In: Proceedings of the Eleventh International AAAI Conference on Web and Social Media, S. 280– 289 (PDF (https://aaai.org/ocs/index.php/ICWSM/ICWSM17/paper/view/15587/14817)). 8. l. Woolley, S. C./Howard, P. N. (Hg.): Computational propaganda: Political parties, politicians, and political manipulation on social media. New York 2019. 9. Vgl. Bessi, A./Ferrara, E.: Social Bots Distort the 2016 US Presidential Election Online Discussion. In: First Monday, 11/2016. 10. Vgl. Bastos, M. T./Mercea, D.: The Brexit Botnet and User-Generated Hyperpartisan News. In: Social Science Computer Review, 1/2019, S. 38-54. 11. Shao, C. et al.: The spread of low-credibility content by social bots. In: Nature Communications, 1/2018, Nr. 4787. 12. Shao, C. et al.: The spread of low-credibility content by social bots. In: Nature Communications, 1/2018, Nr. 4787. 13. Vgl. Kovic, M. et al.: Digital astroturfing in politics: Definition, typology and countermeasures. In: Studies in Communication Sciences, 1/2018, S. 69-85.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 102

Relevanz und Regulierung von Social Bots

Von Markus Reuter 2.5.2019 ist Autor bei netzpolitik.org und beschäftigt sich mit den Themen Grund- und Freiheitsrechte, Überwachung aller Art, Zensur und Inhaltskontrolle, Desinformation, Social Bots sowie sozialen Bewegungen im digitalen Raum. Im Jahr 2017 war er zwei Mal als Sachverständiger im Bundestag zum Thema Fake News und Social Bots geladen.

Bei aller Aufgeregtheit der Diskussion um automatisierte Desinformation: Es ist schwierig Meinungsroboter ohne größeren Aufwand unzweifelhaft zu erkennen. Doch sind deren Auswirkungen wirklich so gravierend, dass Bots per Gesetz bekämpft werden müssen?

Kein Bot - der Twitter Account des US-Präsidenten Donald Trump Lizenz: cc by/3.0/de (CC, Stefan Lampe für bpb.de) Spätestens seit Donald Trump 2016 die Präsidentschaftswahl in den USA gewonnen hat, grassiert die Angst vor dem Einfluss der Meinungsroboter. Im US-Wahlkampf sollen automatisierte Accounts in sozialen Netzwerken Stimmung gemacht haben. Sehr viele für Donald Trump, deutlich weniger für Hillary Clinton. Die Befürchtung hinsichtlich von Social Bots ist: Wenn automatisierte Accounts einen Kandidaten oder eine Partei bejubeln, dann wird dieser politische Einfluss nicht von dem mit den besten Argumenten und den meisten Anhängern ausgeübt, sondern von dem Aktuer, der am meisten Geld in Technik und Know-How stecken kann. Das könnte eine demokratische Auseinandersetzung verzerren – und ist deshalb nicht wünschenswert. Doch haben Bots wirklich so viel Einfluss, wie man angesichts nervöser Debatten immer wieder meinen könnte? Was sind überhaupt Bots?

Das Wort "Bot" ist die Kurzform des englischen Wortes Robot (Roboter). Im Zusammenhang mit sozialen Medien ist ein Bot ein maschinell gesteuerter Account, der automatisiert Aufgaben erfüllt. Dabei können Bots sehr praktisch und völlig legitim sein. Die Netzpolitik-Redaktion hat zum Beispiel

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 103 einen Bot, der in regelmäßigen Abständen überprüft, ob auf netzpolitik.org neue Artikel veröffentlicht wurden. Dann postet er Überschrift, den Link und das Artikelbild auf Twitter. Ganz von allein, ohne dass die Redaktion jeden Artikel von Hand rausschicken müsste. Dass hinter diesem Twitter-Roboter kein Mensch steht, wird dabei direkt im Account transparent gemacht.

Guter Bot, böser Bot

Will jemand im größeren Stil Bots einsetzen, benötigt er viele Accounts. Solche Accounts können automatisiert erstellt werden und sind im Internet in Tausenderpaketen gegen Geld erhältlich. Für den Preis der falschen Accounts gilt: Je menschlicher der Bot wirkt, desto teurer wird es. Vier Jahre alte Bots mit Profilbild, Biografie-Text und zahlreichen Freunden sind also mehr wert als der gerade erstellte Bot ohne Bild, ohne Text, ohne Follower und mit einem kryptischen Accountnamen wie " @xrg92120208383" bei Twitter. Die Aktionen von Social-Media-Accounts lassen sich über eine Software steuern. So wird ein Social Bot daraus. Diese können Freundschaftsanfragen bei Facebook stellen, anderen Accounts folgen, Tweets bei Twitter retweeten oder einen Facebook-Post liken.

Einfache Social Bots dienen der künstlichen, maschinellen Relevanzzuweisung. Sie können beispielsweise bestimmte Themen oder Hashtags automatisiert verstärken. Diese künstliche Relevanzerhöhung kann durch die Berichterstattung von Medien ("Auf Twitter ‚trendete‘ Kandidat XY " oder "Politikerin XY hat 100.000 Follower") noch einmal multipliziert werden. Wie oft ein Video auf YouTube angeschaut wurde, lässt sich mit Geld und Know-How genauso manipulieren wie die Menge von Freunden auf Facebook, die Anzahl von Likes bei Instagram oder eben Retweets eines bestimmten Hashtags auf Twitter. Aufwändig programmierte Bots könnten auch mit anderen Accounts interagieren, etwa indem sie auf bestimmte Aussagen mit bestimmten Antworten reagieren. So ein Bot könnte auf einen Tweet "Ich wähle XY" antworten: "Willst du wirklich XY wählen? XY hat hier gelogen, siehe Link". So könnten Bots tausendfach automatisiert Zweifel säen. Diese Spielart der Bots ist auch in Kombination mit sogenannten Fake News, also Falschmeldungen, denkbar.

Entwarnung für Bundestagswahlkampf 2017

Trotz starker Befürchtungen sind solche Arten automatisierter Desinformation gar nicht oder nur in sehr geringem Maßstab im Bundestagswahlkampf 2017 passiert. Meinungsroboter kamen nur vereinzelt zum Einsatz. Vor der Wahl hatten alle Parteien der Nutzung von Social Bots eine Absage erteilt – und sich auch daran gehalten.

Bei der AfD war allerdings eine andere Art der Täuschung zu beobachten: Im Umfeld der Partei tauchten im Wahljahr auf Twitter zahlreiche inoffizielle Unterstützer-Accounts auf, die gezielt Werbung für die Partei machten. Durch eine großangelegte Datenuntersuchung von Tagesspiegel und netzpolitik.org (https://netzpolitik.org/tag/so-twittert-die-afd/) kam heraus, dass die Accounts untereinander und mit der Partei in Kommunikation standen und deren Kanäle signifikant verstärkten. Doch waren es keine Roboter, die diese Armee von pseudonymen Accounts bedienten, sondern echte Personen.

Ein ähnliches Phänomen, bei dem beispielsweise auf Twitter Diskussionen und deren Wahrnehmung manipuliert werden sollen, sind Trollgruppen, die sich über andere Kommunikationsebenen wie beispielsweise die Chat-Plattform Discord organisieren und koordinieren. Eine dieser Gruppen war Reconquista Germanica, die populäre Hashtags mit eigenen, hetzerischen Inhalten flutete. Oftmals reichen für solche koordinierten Aktionen und eine signifikante Wahrnehmbarkeit schon 50-100 Accounts, die von wenigen Menschen gesteuert werden.

Eine weitere Strategie ist der Aufbau von Fake-Influencern. So gelang es eine falsche rechte US- Bloggerin mit dem Namen "Jenna Abrams" aufzubauen, die mehr als 70.000 Follower hatte, von Abgeordneten retweetet und von bedeutenden Zeitungen zitiert (https://www.theguardian.com/ technology/shortcuts/2017/nov/03/jenna-abrams-the-trump-loving-twitter-star-who-never-really-existed)

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 104 wurde. Solche Kunstfiguren, in denen aber jede Menge menschlicher und kreativer Arbeit steckt, können aufgrund ihrer höheren Glaubwürdigkeit deutlich einflussreicher werden als automatisierte Accounts. Koordinierte Aktionen von sogenannten "Sockenpuppen (https://netzpolitik.org/2016/fakenews-social- bots-sockenpuppen-begriffsklaerung/)" und falschen Influencern, die von Menschen gesteuert und koordiniert werden, sind deutlich besser in der Lage Stimmungen aufzunehmen und in die Kommunikation einzugreifen oder diese zu stören. Die Grenzen zwischen erlaubter Meinungsäußerung, politischem Campaigning und unerwünschter oder gar illegaler Einflussnahme dürfte allerdings fließend sein, was die Bekämpfung von demokratieschädigender Einflussnahme in diesem Feld besonders schwer macht.

Die Relevanz von Social Bots wird überschätzt

Der Datenjournalist Michael Kreil untersucht Twitter seit Jahren. Er spricht den Social Bots auf dem sozialen Netzwerk keine Relevanz in der politischen Kommunikation zu.[1] Kreil sieht deshalb auch keinen Handlungsbedarf bei der Regulierung von Social Bots - außer der Unterstützung der beobachtenden Forschung, damit diese besser als heute erkennen könne, falls Social Bots tatsächlich einmal eine Rolle spielen würden. Kreil sieht viel mehr Handlungsbedarf bei sogenannten "Dark Ads ", also Werbung für oder gegen Parteien, bei der ihr Ursprung nicht überprüfbar ist. Das passiert unter anderem bei der Finanzierung aus dem Ausland. Dies sieht auch Linus Neumann, Sprecher des Chaos Computer Clubs und Sachverständiger für Social Bots im Bundestag, ähnlich: "Bots verzerren eventuell ein bisschen die individuelle Wahrnehmung der Öffentlichkeit, aber das Individuum hat am Tag ungefähr 16 Stunden Aufmerksamkeit, von denen Bots nur winzige Teile und Teilaspekte überhaupt erreichen können."

Wie Kreil und Neumann sieht auch der Social-Media-Analyst Luca Hammer Social Bots als "irrelevant in der politischen Kommunikation" in Deutschland an. "Einen viel größeren Einfluss in der politischen Willensbildung hat das Sprechen über Social Bots." So seien in der Debatte um die EU- Urheberrechtsreform GegnerInnen der Richtlinie fälschlicherweise als Bots bezeichnet worden. Diese Art der Entmenschlichung führe dazu, dass die betroffenen Bürgerinnen und Bürger sowie ihre vorgetragenen politischen Bedenken diskreditiert würden.

Das Problem der Nachweisbarkeit von Bots

Das Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag definiert Bots folgendermaßen: " Social Bots sind Computerprogramme, die eine menschliche Identität vortäuschen und für manipulative Zwecken eingesetzt werden, indem sie wie Menschen im Internet kommunizieren."[2] Das wirft ein weiteres Problem auf: Man kann die Definition wissenschaftlich nicht verwerten. "Wie soll man denn Social Bots von Menschen unterscheiden können, wenn per Definition Social Bots und Menschen nicht unterscheidbar sind?", fragt Kreil.

Viele Wissenschaftler unterstellen den vermeintlichen Social Bots deshalb ein bestimmtes Verhalten ohne dies jedoch belegen zu können. Das Computational Propaganda Research Project am Oxford Internet Institute und mit ihm viele andere Forscherteams verwenden als Kriterium, dass ein Account mehr als 50 Tweets am Tag absetzt. Doch dieses Kriterium erreichen auch Menschen problemlos. Kreil hat herausgefunden, dass es im Bundestag Abgeordnete gibt, die täglich 200 bis 300 Tweets und Interaktionen auf Twitter auslösten – und eben ganz augenscheinlich keine Bots seien.

Probleme in der Erkennung der Social Bots sieht auch Neumann: "Sämtliche bisher entwickelten Verfahren fielen auch bei grober Prüfung durch immense Fehlklassifizierungen auf." Das sieht auch Datenanalyst Hammer so. Er ist davon überzeugt, dass man nur über eine tiefe qualitative Auswertung von Accounts sicher bestimmen könne, ob ein Account ein Social Bot sei. Das werde aber nicht gemacht, da Analysten auf die automatisierte Auswertung setzen würden. Um Social Bots im großen Stil zu erkennen bräuchte es qualitative Untersuchungen, die bei einer großen Zahl an Accounts sehr

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 105 aufwändig wären. Die schwierige Nachweisbarkeit führt dazu, dass eine Regulierung, die im politischen Raum immer wieder gefordert wird, sich gegen ein Phänomen richten würde, das derzeit von der Wissenschaft nicht zufriedenstellend erkannt werden kann. Weder über Quantität, Qualität noch über die Wirkung von Social Bots gibt es genügend Erkenntnisse.

Plattformen müssen eine unabhängige Auswertung ermöglichen

Hammer sieht die Plattformen erst einmal selbst in der Pflicht gegen Social Bots vorzugehen: "Twitter setzt etwa Machine Learning ein, um verdächtige Accounts zu erkennen und diesen dann eine Aufgabe zu geben." Die Accounts müssen dann sogenannte Captchas lösen oder ihre Telefonnummer verifizieren. Dies führe dazu, dass die "Bot-Betreiber" dazu übergingen, selbst weniger auf Automatisierung als auf Menschen hinter den Accounts zu setzen. Ähnlich sieht das Neumann: "Sofern es für notwendig erachtet wird, Social Bots zu bekämpfen – was zunächst zur Diskussion stehen sollte – kämen kurzfristig wohl nur Sperrungen der Accounts in Frage." Menschen sollten stattdessen in Medienkompetenz und der Anwendung von "journalistischen Standards” geschult werden, damit sie seriöse Äußerungen von unseriösen unterscheiden können – egal ob sie von einem Bot stammen oder nicht.

Michael Kreil lehnt eine Kennzeichnungspflicht, wie sie unter anderem von CDU, SPD und Grünen gefordert wurde, ab, da Kriminelle ihre "Social Bots" sowieso nicht kennzeichnen würden. Auch Hammer ist der Meinung, diese Maßnahme sei nicht zielführend, sondern könnte sogar Spammer mit der Kennzeichnung legitimieren. Stattdessen fordert er, dass Plattformen verpflichtet werden sollten, ihre Programmierschnittstellen stärker zu öffnen, um unabhängigen Forschern bessere Auswertungen rund um Social Bots und Manipulation zu ermöglichen. Um Datenschutzproblemen zu begegnen würden für diese Art der Auswertung auch pseudonymisierte Daten ausreichen.

Was nicht erkannt werden kann, sollte nicht reguliert werden

Das Problem bei der Bekämpfung von Social Bots oder anderen manipulativen Accounts ist, dass eine Regulierung sehr schnell Grundrechte wie die Presse- oder Meinungsfreiheit tangiert – und so die negativen Folgen der Regulierung schwerer wiegen als der derzeit (kaum) festgestellte Schaden für die Demokratien durch diese Taktiken der Desinformation. Auch Neumann vom CCC findet, dass andere Ideen wie eine "Personalausweispflicht im Internet” das Potenzial für einen immensen Flurschaden hätten. Die breite und zuweilen nervöse Debatte um Fake News und Social Bots hat Deutschland für das Thema sensibilisiert. Eine Regulierung gegen Bots scheint beim bisherigen Stand der Wissenschaft viel zu gefährlich: Sie könnte schnell auch nützliche und sozial wünschenswerte Anwendungen stören, die Meinungsfreiheit beschränken und Innovationen behindern.

Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/ de/ (http://creativecommons.org/licenses/by-nc-nd/3.0/de/) Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc- nd/3.0/de/ Autor: Markus Reuter für bpb.de

Fußnoten

1. Für diesen Beitrag hat der Autor Anfang April 2019 Angaben und Statements von Experten eingeholt, die hier wiedergegeben werden. 2. Kind, Sonja et al.: Social Bots. TA-Vorstudie, Berlin 2017, S. 11.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 106

Wie umgehen mit Digitaler Desinformation?

2.5.2019

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 107

Lügen im Netz: Sich davor schützen und andere aufklären

Von Ingrid Brodnig 2.5.2019 ist Journalistin und fungiert als Österreichs "Digital Champion" im Rahmen einer Initiative der Europäischen Kommission zur Förderung des Wissens über Digitalisierung

Als Internetnutzer fu hlt man sich womo glich ohnma chtig. Was soll man als Einzelner schon gegen die Flut an Desinformation ausrichten? Ko nnen Bu rger da u berhaupt etwas tun?

Ja. Jeder kann etwas dazu beitragen, dass die Situation eine Spur besser wird und es Fa lscher damit insgesamt etwas schwerer haben. Der erste Schritt ist, selbst ein mo glichst gutes Radar fu r dubiose Behauptungen zu entwickeln – um nicht auf Ta uschungen hereinzufallen und um andere im Freundeskreis rasch zu warnen. Zweitens ko nnen wir geschickter werden im Kontern mit Aufkla rung und mit der Betonung dessen, was richtig ist und was falsch.

Misstrauen Sie Fotos

Fa lscher arbeiten ha ufig mit Bildern, weil diese authentisch anmuten. Fotos werden einerseits retuschiert, andererseits werden auch alte Aufnahmen verwendet und in einen neuen, verzerrten Kontext gestellt: Seit Jahren kursiert zum Beispiel zu Weihnachten ein Video auf sozialen Medien, bei dem dunkelha utige Kinder auf einem Weihnachtsbaum herumklettern. Dazu wird behauptet, das Video zeige ein Hamburger Einkaufszentrum, und junge Muslime ha tten keinen Respekt fu r das Christentum. Doch diese Aufnahme wurde aus dem Kontext gerissen: Sie ist schon relativ alt und zeigt nicht Hamburg. Das Video wurde in einem Shopping-Zentrum in Kairo aufgezeichnet, wo Kinder tatsa chlich einmal auf den Christbaum kletterten – ein eher harmloser Vorfall. Die Security-Bediensteten holten die Kids wieder vom Baum herunter, weil man natu rlich auch in Kairo nicht einfach auf die Deko des Shoppingcenters klettern darf. Dieses Video wird jedes Jahr zu Weihnachten erneut hochgeladen und als Beleg umgedeutet, wie sehr das Christentum angeblich in Gefahr sei. Gerade bei solchen – auf den ersten Blick – wu tend machenden Aufnahmen sollte man vorsichtig sein.

Simpler Trick: Die Authentizita t von Bildern kann man ha ufig u berpru fen – Bildersuchmaschinen zeigen einem an, ob eine Aufnahme schon fru her im Web hochgeladen wurde. Unter der Adresse images.google.com (https://images.google.com) la sst sich jedes Foto hochladen und darauf u berpru fen, ob es bereits im Web zu finden ist. Wurde eine Aufnahme schon vor fu nf Jahren geteilt, dann kann sie nicht der Fotobeleg fu r einen Vorfall gestern sein – hier wurde altes Videomaterial entwendet. Auch manipulierte Bilder lassen sich mitunter entlarven: Vergleicht man das Originalbild mit der neuen Version, sieht man die Unterschiede, also welche Details retuschiert wurden. Wird man bei Google nicht fu ndig, empfiehlt sich auch die Bilder-Suchmaschine TinEye (tineye.com (https:// tineye.com)), die manchmal andere Treffer liefert. Suchmaschinen ko nnen natu rlich nicht jede Bild- Manipulation aufla ren, aber sie sind doch ein hilfreiches Tool. Denn Fa lscher sind oft u berraschend faul und nehmen einfach das erstbeste Bild aus dem Netz.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 108 Misstrauen Sie der Optik

Unserio se Seiten schauen oft u berraschend "normal" aus. Es ist extrem gu nstig geworden, eine serio s wirkende Webseite zu starten (unabha ngig von der Frage, ob die Inhalte dort serio s sind). Fu r 100 Euro im Jahr kann man den no tigen Webspace, eine vertrauenswu rdig klingende Internetadresse und ein schickes Design fu r die eigene Seite kaufen. Auf den ersten Blick schaut so ein Webauftritt dann sogar a hnlich wie ein professioneller Nachrichtenanbieter aus – und davon lassen sich Nutzer immer wieder ta uschen. Wenn man eine Webseite nicht kennt, sollte man sich also fragen: Moment, wer betreibt denn diese Seite?

Simpler Trick: Innerhalb der EU muss jede Seite ein Impressum haben – und dort den Namen der Betreiber und eine Adresse angeben. Bietet eine deutschsprachige Webseite kein richtiges Impressum, ist dies ein absolutes Warnsignal. Auch lohnt es sich, ins Impressum oder den Punkt "U ber uns" zu schauen, weil einige Seiten dort erkla ren, dass alles nur "Satire" oder ein "Witz" sei. Wird man aus dem Impressum nicht schlau oder fehlt dieses, empfiehlt sich auch folgendes: Googeln Sie den Namen der Ihnen unbekannten Seite. Hat ein Onlineportal bereits einen Ruf als Desinformationsschleuder, dann werden Sie in der Google-Suche oft auch warnende Artikel oder Faktenchecks finden. Ich empfehle generell: Teilen Sie keine Inhalte von Seiten, die Sie nicht kennen und deren Vertrauenswu rdigkeit Sie nicht einscha tzen ko nnen. Hinter einer serio s wirkenden Optik kann viel Unsinn stecken.

Misstrauen Sie Ihrer Emotion

Falschmeldungen funktionieren u ber Gefu hle: Viele irrefu hrende Behauptungen lo sen gezielt Wut aus oder besta tigen die eigenen Feindbilder, sodass Menschen den Impuls spu ren, prompt die Meldung mit ihren Bekannten zu teilen – weil man sich furchtbar a rgert oder weil man sich so besta tigt fu hlt. Im Affekt vergisst man die zentrale Frage: Stimmt die Behauptung wirklich?

Simpler Trick: Achten Sie auf Ihre Emotion. Wenn eine Meldung Sie total in Wut versetzt oder Ihnen aus der Seele spricht, sollten Sie prompt vorsichtig werden und schauen, ob diese Behauptung von einer serio sen Seite kommt. Denn gerade Fa lscher formulieren Nachrichten so, dass sie uns emotional besta tigen – ein starker emotionaler Impuls ist ein Warnsignal. Nicht alles, was brisant anmutet, ist falsch. Aber die Realita t ist oft deutlich langweiliger als eine Falschmeldung.

Natu rlich will nicht jeder Internetnutzer selbst zum Detektiv werden und skandalo s klingenden Aussagen hinterherrecherchieren – die gute Nachricht ist: muss man auch nicht. Besonders weit verbreitete Geru chte wurden oft schon von Faktencheckern u berpru ft – im deutschsprachigen Raum liefern Seiten wie Mimikama.at (https://mimikama.at), faktenfinder.tagesschau.de (https://faktenfinder. tagesschau.de) oder Correctiv.org (https://correctiv.org) Aufkla rung. Googeln Sie einfach eine falsche Behauptung und schreiben Sie dazu das Wort "Faktencheck" oder "Fake", also zum Beispiel " weihnachtsbaum hamburg muslime faktencheck". Sie werden dann oft als ersten Treffer die Ergebnisse eines Faktenchecks angezeigt bekommen. Unter hoaxsearch.com (http://hoaxsearch.com) bietet das Aufkla rungsportal Mimikama auch eine Suchmaske fu r alle geta tigten Faktenchecks. Man muss nicht alles selbst recherchieren – oft hilft es bereits, zu wissen, wo man nachschauen kann.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 109 Andersdenkende aufklären?

Selbst keine Falschmeldungen zu verbreiten, ist ein guter erster Schritt. Will man aber zur Aufkla rung beitragen, stellt sich die Frage: Wie u berzeuge ich Menschen davon, dass eine Behauptung gar nicht stimmt? Nur weil richtige Information erha ltlich ist, heißt dies nicht, dass Menschen daran glauben. Gerade bei gesellschaftlich polarisierenden politischen Themen ist es ungemein schwerer, Andersdenkende argumentativ zu erreichen. Das Kernproblem beim Diskutieren im Netz ist, dass dieses ha ufig in einer feindlichen Atmospha re stattfindet: Treffen Andersdenkende auf Facebook oder in Zeitungsforen aufeinander, dann oft um sich gegenseitig auszurichten, wie falsch der andere die Welt sieht. Doch wenn politische Debatten eher einem Schlagabtausch als einem respektvollen Gespra ch entsprechen, wird logischerweise wenig Aufgeschlossenheit fu r die andere Sichtweise und deren Argumente existieren. Meine Empfehlung: Diskutieren Sie lieber in jenen Gruppen oder auf jenen Seiten, wo es zwar unterschiedliche Meinungen, aber auch Grundregeln im Austausch gibt – etwa, dass Beleidigungen nicht stehen bleiben du rfen. Wenig u berraschend polarisiert das Posten von Beleidigungen und tra gt dazu bei, dass sich die Kluft zwischen Andersdenkenden vergro ßert. Doch es gibt Szenarien, in denen Fakten eine gro ßere Chance haben. Hier ein paar Tipps:

Liefern Sie Erkla rungen

Die Korrektur einer Falschmeldung ist effizienter, wenn Menschen die Hintergru nde verstehen. Bu rger merken sich eine Information eher, wenn sie ihnen schlu ssig erscheint.[1] Nehmen wir die Behauptung, die deutsche Bundesregierung wu rde mit Nachtflu gen Flu chtlinge ins Land "schleusen". Es ist wenig effizient, einfach zu sagen: "Nein, diese Behauptung ist falsch". Sta rker wirkt es, wenn man tatsa chlich erkla rt, was vorgefallen ist. Zum Beispiel kann man den Sachverhalt folgendermaßen erkla ren: "Es stimmt, dass im Sommer sogenannte Nachtflu ge aus der Tu rkei kommen – nur hat das speziell mit Urlaubenden zu tun. Menschen wollen mo glichst lang am Ferienort sein und nehmen deswegen Flu ge, bei denen sie in der Nacht fliegen und viel Zeit im Urlaubsland verbringen ko nnen." Indem ich Ihnen diese Erkla rung liefere, erho he ich die Chance, dass Sie die Information in Erinnerung behalten: Wir Menschen sind keine Computer, die Daten stur abspeichern, wir merken uns eine Information eher, wenn sie fu r uns nachvollziehbar ist.

Zitieren Sie Quellen, der die konkrete Person vertraut

Ein Problem in polarisierten Debatten ist, dass ein Teil der Bu rger selbst serio se Quellen nicht akzeptieren will – dann heißt es schlimmstenfalls, der "Spiegel" sei die "Lu genpresse", und der o ffentlich-rechtliche Rundfunk sei "gleichgeschaltet". Wenn Bu rger so verfestigte Ansichten vertreten, gibt es einen argumentativen Umweg: Womo glich findet sich eine Quelle, die die richtige Information verbreitet hat, die aber trotzdem Ansehen bei dieser Person genießt. Zum Beispiel kann es sogar sein, dass Prominente eine aufkla rende Rolle spielen, wenn sie reale Probleme ansprechen und gleichzeitig hohes Vertrauen genießen. Auch ist es effizienter, bei Menschen eher jene Personen oder Medien zu zitieren, die in ihrem Umfeld Anerkennung genießen. Noch mal zum Beispiel der Nachtflu ge: Auch das rechte Medium "Junge Freiheit" hat dieses Geru cht von den Nachtflu gen nachrecherchiert – und kam zum Schluss: "Es ist nichts dran an dieser Story."[2] Ein Bu rger, der ohnehin die "Junge Freiheit " abonniert, wird dieser Quelle eher glauben als jenen Bla ttern, denen er "Gutmenschentum" unterstellt.

Je mehr man schließlich als Bu rgerin und Bu rger auch die Mechanismen der großen Plattformen versteht, desto mehr kann man darauf achten, mit dem eigenen Klick-, Link-, und Like- Verhalten nicht ausgerechnet den unserio sen Akteuren zu helfen. Und wenn Sie im Gegenzug sehen, dass gerade ein wichtiger Faktencheck zu einer a rgerlichen Falschmeldung erscheint: Liken Sie das doch, kommentieren Sie es oder verlinken Sie die Info. Natu rlich ko nnen wir alle einen Beitrag dazu leisten, dass serio se und richtige Information sichtbarer wird – und die Fa lscher und Provokateure es eine Spur schwerer haben.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 110

Bearbeiteter Auszug aus: Lügen im Netz. Wie Fake News, Populisten und unkontrollierte Technik uns manipulieren. Erweiterte und aktualisierte Neuauflage Copyright © 2018 Ingrid Brodnig/Brandstätter Verlag.

Fußnoten

1. Vgl. Nyhan, Brendan/Reifler, Jason: Displacing Misinformation about Events: An Experimental Test of Causal Corrections. In: Journal of Experimental Political Science, Nr. 1/ 2015, S. 81-93. 2. Stein, Dieter: Die Legende der Nachtflüge. In: Junge Freiheit, Nr. 34/2016, S. 2.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 111

Kritische Medienkompetenz als Säule demokratischer Resilienz in Zeiten von "Fake News " und Online-Desinformation

Von Lena Frischlich 2.5.2019 ist Leiterin einer interdisziplinären Nachwuchsforschungsgruppe mit dem Titel "DemoRESILdigital: Demokratische Resilienz in Zeiten von Online-Propaganda, Fake news, Fear- und Hate Speech” an der Westfälischen Wilhelms-Universität.

Um Falschmeldungen zu begegnen, bedarf es seitens der Nutzer mehr kritischer Medienkompetenz. Theoretische Kenntnisse reichen dabei nicht, sondern die zur Förderung von Widerstandskraft gegen Desinformation zentralen Elemente Vertrauen, Bewusstsein, Betrachtung und Befähigung müssen gemeinsam gedacht werden.

Spätestens seit der US-Wahl 2016 ist die Verbreitung von Online-Desinformationen und "Fake News " in aller Munde. Auch wenn Desinformationen keine neue Erfindung sind, gibt der Siegeszug des " Mitmach-Internets", dem Web 2.0, ihnen eine neue Dynamik. Dadurch, dass heutzutage nahezu jede/ r Inhalte im Netz veröffentlichen kann, steigt nicht nur die Möglichkeit zur gesellschaftlichen Teilhabe – es ergeben sich auch neue Möglichkeiten zur Verbreitung von Fehlinformationen und Propaganda.

Die genaue Definition des "Fake News" Begriffs ist aber umstritten. Drei Kritikpunkte sind hier besonders relevant:[1] Erstens versteht nicht jede oder jeder unter dem Begriff "Fake News" dasselbe. Es kann sowohl ein bestimmtes "Genre"– nämlich Fehlinformationen im Format von scheinbaren Nachrichten – gemeint sein, als auch eine generalisierte Kritik an journalistischen Massenmedien.

Zweitens sind "Fake News" nicht unbedingt falsch. Mediennutzende werden oft eher mit systematisch verzerrten Meldungen konfrontiert als mit vollständig erfundenen Ereignissen. Schließlich können sowohl die Kerninformation (beispielsweise Bilder, Texte, etc.), als auch die Meta-Information (beispielsweise Headlines, Autorenschaft), oder der Kontext einer Nachricht (beispielsweise die Webseite) falsch oder verzerrt sein. Um Missverständnissen vorzubeugen wird daher im Folgenden bei strategisch fehlerhafter Kerninformation von Desinformationen gesprochen. Desinformationen im Gewand journalistischer Nachrichten, deren Meta-Informationen einen Faktizitätsanspruch suggerieren, werden als verzerrte Nachrichten bezeichnet. Geht es um einen medialen Kontext (etwa eine Webseite), der die Erscheinung journalistischer Massenmedien imitiert, aber die Standards journalistischer Herausgabeprozessen oder Absichten systematisch ignoriert,[2] wird das im Folgenden als "politische Pseudo-Presse" bezeichnet.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 112 Kritische Medienkompetenz im Kontext von Fehlinformationen

Medienkompetenz[3] umfasst vier zentrale Aspekte: Erstens Medienkritik, also die Fähigkeit zur analytischen, reflexiven, und ethische Nutzung von Medien. Zweitens Medienkunde, also das Wissen um das heutige Mediensystem und darüber wie Medien und MedienmacherInnen arbeiten sowie die Fähigkeit Medien zu bedienen auch um die eigene digitale Bürgerschaft auszuüben. Drittens Mediennutzung – empfangend zum Beispiel durch Programmwahl ebenso wie interaktiv (zum Beispiel durch das Kommentieren von Online-Inhalten). Viertens Mediengestaltung. Vor allem letzteres wird durch das Web 2.0 und Smartphones immer leichter. Für den Umgang mit Fehlinformationen ist aber die Medienkritikfähigkeit oder auch kritische Medienkompetenz besonders zentral.

Auf Basis der Forschung zu einer verwandten Form manipulativer Online-Kommunikation, extremistischer Propaganda, wurde vorgeschlagen, kritische Medienkompetenz in drei miteinander verbundene Dimensionen aufzuteilen: Bewusstsein (englisch: awareness), Betrachtung (englisch: reflection), und Befähigung (englisch: empowerment)[4]. Alle drei lassen sich auch auf den Umgang mit Fehlinformationen übertragen.

"Awareness" heißt in diesem Fall das Bewusstsein um die Existenz von Fehlinformationen. Hierzu gehört neben dem Wissen um verschiedenen Formen von Fehlinformationen (Desinformationen in Bild, Text, oder Videoform, verzerrte Artikel und politische Pseudo-Presse) auch ein vertieftes Verständnis darüber, wie Medien arbeiten und Online-Medien funktionieren. Hier besteht durchaus Aufklärungsbedarf: 41% der Deutschen wussten 2018 nicht, wie Nachrichten bei Facebook ausgewählt werden, weniger als ein Drittel (28%) war sich der Computeranalysen im Hintergrund bewusst.[5] Auch generelles Weltwissen und die Festigkeit der eigenen Einstellungen sind ein wichtiger Schutzfaktor. Menschen lassen sich leichter überzeugen, wenn sie noch keine eigene Meinung zum Thema ausgebildet haben. Die Änderung von feststehenden, gut durchdachten Einstellungen ist weitaus schwieriger.[6] Neben Medienkompetenz spielt hier also auch Demokratiekompetenz eine wichtige Rolle.

Allerdings: Vorwissen alleine schützt nicht. Studien zeigen, dass Personen, die zuvor mit Fehlinformationen konfrontiert waren in Wissenstest falsche Antworten geben, selbst wenn sie die richtige Antwort eigentlich kannten. Besonders dann, wenn EmpfängerInnen nicht nachdenken während sie Informationen aufnehmen setzen sich Fehlinformationen fest.[7] Entsprechend relevant ist die bewusste Betrachtung ("Reflection") von Inhalten mit Nachrichtencharakter, das gründliche Nachdenken, bevor man einen Artikel likt, teilt oder die Behauptung einer Überschrift für bare Münze nimmt. Generell prüfen Mediennutzende Online-Nachrichten in zwei Phasen.[8] Zunächst erfolgt eine rasche, "interne" Bewertung – ein Abgleich mit dem eigenen Weltwissens (zum Beispiel ob die Nachricht der eigenen Meinung entspricht), der Einschätzung der Quelle (etwa ob es sich um ein vertrauenswürdiges Medium handelt) und der Aufmachung der Nachricht (etwa ob der Text reißerisch ist oder viele ihn gelikt haben).

Diese internen Strategien können jedoch irreführen. Das Vertrauen auf das eigene Wissen und die eigenen Einstellungen trägt dazu bei, dass Fehlinformationen, die der eigenen Meinung widersprechen, weniger hinterfragt und Widerlegungen ausgeblendet werden, wenn sie nicht zum Weltbild passen. Außerdem hängt auch die Bewertung der Glaubwürdigkeit einer Quelle davon ab, ob die Inhalte zur eigenen politischen Einstellung passen,[9] auch dabei kann man sich also irren. Selbst die Aufmachung ist ein unzuverlässiges Kriterium: Nicht jede reißerische Schlagzeile ist falsch, und nicht jede sachliche Schlagzeile ist korrekt. Weiterhin können aggregierte Nutzerbewertungen (zum Beispiel die Anzahl an Likes) durch Pseudo-User (zum Beispiel Fake Accounts oder Social Bots) leicht manipuliert werden.

Dennoch prüfen Mediennutzende Online-Nachrichten nur dann detaillierter, wenn diese internen Kriterien zu keiner schnellen Entscheidung führen. Auch dabei verlassen sich einige noch passiv darauf, dass die Medien Falschmeldungen wohl widerlegen oder ihr soziales Umfeld sie auf Fehlwahrnehmungen aufmerksam machen würde. Das Risiko, dass Fehlwahrnehmungen dabei nicht auffallen, ist entsprechend hoch. Nur ein Teil prüft Online-Nachrichten aktiv indem Suchmaschinen

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 113 oder Fact-checking-Seiten genutzt werden. Obwohl in einer Umfrage 2017 fast die Hälfte derjenigen, die angaben, "Fake News" zu kennen, berichteten, sie hätten schon einmal Fakten und Sachverhalte online geprüft, hatten nur 12% schon einmal eine Internetadresse (URL) oder den Link einer Quelle, und noch weniger hatten Fotos oder Videos genauer inspiziert.[10]

Empowerment schließlich beschreibt die Befähigung des Individuums manipulative Inhalte im Netz zu erkennen, das Selbstvertrauen diese Fähigkeiten effektiv einsetzen zu können, und das Wissen um den besten Umgang mit derartigen Inhalten. Letztlich geht es um das Hinterfragen der Kerninformation (Aussage, Bilder oder Videos), der Meta-Informationen (zum Beispiel Überschriften, AutorInnen oder aggregierte Nutzerbewertungen) ebenso wie des Kontextes (beispielsweise Vertrauenswürdigkeit von Webseiten). Eine groß angelegte Studie in den USA, die Tausende von SchülerInnen und Studierende mit Aufgaben zur Identifikation von Quellen, zur Bewertung von Belegen und zur Konsultation weiterer Quellen konfrontierte, zeigte, dass diese Prüfungen selbst den sogenannten digitalen Eingeborenen schwerfällt.[11]

Die Grenzen kritischer Medienkompetenz

Zwar können verschiedene Online-Dienste bei der Prüfung von Fehlinformationen helfen – viele erfordern aber die Investition von Zeit. Insbesondere jenseits professioneller Institutionen (beispielsweise journalistischen Redaktionen) und formaler Bildungskontexte (etwa in der Schule) ist diese Zeit oft Mangelware. Gerade ältere Erwachsene konsumieren und verbreiten Pseudo-Presse Angebote aber besonders aktiv.[12] Kritische Medienkompetenz ist zudem kein Allheilmittel. Wenn Mediennutzende in einem trügerischen Gefühl der Allwissenheit gewogen werden oder die Verantwortung alleine tragen sollen, kann kritische Medienkompetenz sogar negative Folgen haben.[13] Um dem entgegenzuwirken, ist ergänzend das Bewahren und der (Wieder-)Aufbau von Vertrauen in InformationsgeberInnen von Bedeutung.

Vertrauen als demokratischer Resilienzfaktor

Meist wird unter Vertrauen (englisch: trust) ein psychologischer Zustand verstanden, in dem jemand, der oder die Vertrauende(n), in einer unsicheren Situation, das Risiko eingeht einem Vertrauensobjekt oder Vertrauenssubjekt (einer Person, Institution etc.) zu vertrauen.[14] Ob Personen dieses Risiko eingehen, hängt einerseits von ihrer generellen Bereitschaft zu Vertrauen ab und andererseits von der Vertrauenswürdigkeit des jeweiligen Vertrauensobjektes — bei Fehlinformationen also auch von der Vertrauenswürdigkeit des politischen Systems, von Wissenschaft und Medien. Durch den Akt des Vertrauens wird der Vertrauende handlungsfähiger und kann auch dann entscheiden, wenn sie oder er nicht alle Informationen aus eigener Erfahrung bewerten kann. Bei vielen politischen, wissenschaftlichen, oder globalen Themen ist Vertrauen notwendig um demokratische Handlungsfähigkeit zu bewahren etwa um informiert zu wählen.

Vertrauen wird durch negative Erfahrungen schwer erschüttert. Transparenz und Verantwortungsübernahme sind daher ein wichtiger Aspekt im Umgang mit Desinformationen. Das gilt auch für das Vertrauen in journalistische Informationen. Journalistische Artikel die Hintergrundinformationen über die Recherche zur Verfügung stellen, werden als vertrauenswürdiger wahrgenommen.[15] Das Bereitstellen von vertrauenswürdigen Informationen alleine reicht jedoch nicht, entsprechende Inhalte müssen auch online zu finden sein. Hier können Empfehlungsalgorithmen dazu beitragen, dass faktenorientierte Inhalte bevorzugt werden. Allerdings müssen sich auch InformationsgeberInnen (beispielsweise Politik und Wissenschaft) über die Funktionsweise von Online- Medien bewusst sein und in ihrer Kommunikation medienkompetent handeln. Schließlich können auch Fact-checking-Angebote hier einfach zu identifizierende Anlaufstellen bieten, selbst wenn direkte Widerlegungen von Fehlinformationen oft wenig erfolgreich sind.[16]

Zusammenfassend lässt sich argumentieren, dass Vertrauen (Trust), Bewusstsein (Awareness), Betrachtung (Reflection), und Befähigung (Empowerment) Hand in Hand gehen um Fehlinformationen

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 114 im Allgemeinen und Online-Desinformationen im Speziellen kompetent zu begegnen und die (psychische) Widerstandskraft zu fördern und zu bewahren, die als demokratische Resilienz bezeichnet wird.

Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/ de/ (http://creativecommons.org/licenses/by-nc-nd/3.0/de/) Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc- nd/3.0/de/ Autor: Lena Frischlich für bpb.de

Fußnoten

1. Unsere detaillierte Diskussion des Begriffs findet sich bei Quandt, T. et al.: Fake News. In: Vos, T. P. et al. (Hg): The International Encyclopedia of Journalism Studies. 2019. 2. Fehlinformationen im Format von scheinbar medizinischen Inhalten stehen ebenso wenig im Fokus dieses Beitrages wie Fehlinformationen in unterhaltungsorientierten Angeboten wie Memes, das heißt jedoch nicht, dass diese Phänomene weniger relevant sind. 3. Vgl. Baake, D.: Medienkompetenz - Begrifflichkeit und sozialer Wandel. In: Rein, A. von (Hg.): Medienkompetenz als Schlüsselbegriff. Frankfurt am Main, S. 112-124. 4. Vgl. Schmitt, J. B. et al.: Critical media literacy and Islamist online propaganda: The feasibility, applicability and impact of three learning arrangements. International Journal of Conflict and Violence, 12/2018, S. 1-19. 5. Vgl. Hölig, S./Hasebrink, U.: Reuters Institute digital news report 2018, Ergebnisse für Deutschland. Arbeitspapiere des Hans-Bredow-Instituts, Nr. 44, 2018. 6. Für ein Überblick siehe Olsen, J. M./Zanna, M. P.: Attitudes and attitude change. In: Annual Review of Psychology, 44/1993, S. 117-154. 7. Für einen Überblick siehe Rapp, D. N.: The consequences of reading inaccurate information. In: Current Directions in Psychological Science, 4/2016, S. 281-285. 8. Vgl. Tandoc, E. C. et al.: Audiences’ acts of authentication in the age of fake news: A conceptual framework. In: New Media and Society, 8/2018, S. 2745-2763. 9. Vgl. Pennycook, G./Rand, D. G.: Fighting misinformation on social media using crowdsourced judgments of news source quality. In: Proceedings of the National Academy of Sciences, 7/2019, S. 2521-2526. 10. Landesanstalt für Medien NRW: Ergebnisbericht zur Wahrnehmung von Fake News. 2017 (PDF (https://www.medienanstalt-nrw.de/fileadmin/user_upload/Ergebnisbericht_Fake_News.pdf)). 11. Vgl. McGrew, S. et al.: The challenge that’s bigger than fake news: Civic reasoning in a social media environment. In: American Educator, Fall/2017, S. 4-10. 12. Vgl. Guess, A./Nagler, J./Tucker, J.: Less than you think: Prevalence and predictors of fake news dissemination on Facebook. In: Science Advances ,1/2019, S. 1-9. 13. Vgl. Bulger, M./Davison, P.: The promises, challenges, and futures of media literacy. Data & Society Research Institute 2018. 14. Vgl. Mayer, R. C./Davis, J. H./Schoorman, D. F.: An integrative model of organizational trust. In: The Academy of Management Review, 3/1995, S. 709-734. 15. Vgl. Curry, Alex/S., Natalie J.: Trust in Online News. Austin, Texas 2017. 16. Vgl. Chan, M.-P. et al.: Debunking: A meta-analysis of the psychological efficacy of messages countering misinformation. In: Psychological Science, 11/2017, S. 1531-1546.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 115

Strategien der Europäischen Union gegen Desinformation

Von Stephan Mündges 2.5.2019 ist Wissenschaftlicher Mitarbeiter Professuren für Medienökonomie und Wirtschaftspolitischen Journalismus am Institut für Journalistik der TU Dortmund.

Die EU sieht Falschinformationen und Desinformationskampagnen als große Gefahr für die demokratischen Institutionen, den öffentlichen Diskurs und den gesellschaftlichen Zusammenhalt innerhalb Europas. Mit welchen Strategien geht die EU gegen Desinformation vorgeht, und welche Konflikte können sich durch die Maßnahmen ergeben?

Bei ihrer Analyse und Strategieentwicklung stützt sich die Europäische Union (EU)(besonders aktiv in diesem Bereich ist die Europäische Kommission) auf empirische Studien, europaweite Umfragen, Analysen externer Institutionen und Organisationen sowie auf Berichte eigener Expertengruppen. So rief die Kommission beispielsweise die sogenannte High Level Expert Group on Fake News and Online Disinformation ins Leben. Das Gremium war mit renommierten Kommunikationswissenschaftlern, Journalisten sowie Vertretern von Technologie- und Medienkonzernen besetzt. In ihrem Bericht (https:// ec.europa.eu/digital-single-market/en/news/final-report-high-level-expert-group-fake-news-and-online- disinformation) definiert die Expertengruppe, was Desinformationen überhaupt sind, und empfiehlt mögliche Maßnahmen, die die Europäische Kommission im Kampf gegen Desinformation ergreifen könnte. Aufgrund dieser Faktenlage hat die EU eine Reihe verschiedener Strategien und Maßnahmen ergriffen, mit der sie auf das komplexe und vielschichtige Problem reagiert:

• Selbstverpflichtungen großer digitaler Plattformen und Technologiekonzerne mit dem Ziel die Verbreitung von Desinformationen einzudämmen und mehr

• Transparenz für die Nutzer herzustellen,

• der Förderung von Medienkompetenz,

• der Förderung von journalistischen und technologischen Projekten und

• dem Aufbau eigener Überwachungseinheiten und Informationsangebote, um selbst schnell auf Falschinformationen und Desinformationskampagnen zu reagieren.[1]

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 116 Selbstverpflichtungen großer digitaler Plattformen und Technologiekonzerne

Große Technologiekonzerne sind es, die einen Großteil der digitalen Infrastruktur bereitstellen, über die öffentliche Kommunikation läuft: Facebook und Twitter sind soziale Netzwerke, über die Menschen miteinander in Kontakt treten und Informationen ausgetauscht werden, Google fungiert durch seine Suchmaschine und Dienste wie Google News als zentraler Vermittler von Informationen. Beim Kampf gegen Desinformation liegt es daher nahe, diese Firmen mit einzubeziehen. Deren Vertreter haben in Zusammenarbeit mit der EU-Kommission einen Verhaltenskodex erarbeitet und unterschrieben, mit dem sie sich selbst dazu verpflichten, Maßnahmen zu ergreifen, um die Verbreitung von Desinformationen zu minimieren.[2]

1. Werbeanzeigen

Desinformationen können online über Werbeanzeigen verbreitet werden, zum Beispiel indem schädliche Inhalte in Werbeanzeigen in den Newsfeeds von Facebook-Nutzern angezeigt werden oder indem sie im Umfeld von Suchergebnissen bei Google platziert werden. Außerdem können sich Seiten, die Desinformationen verbreiten, über Werbeanzeigen finanzieren. Problematisch sind beide Fälle, insbesondere da Werbeanzeigen genau auf Nutzer, ihre Interessen und Weltsicht zugeschnitten werden können ("Microtargeting"), wodurch sie enorm an Überzeugungskraft gewinnen können. Facebook und Google sind große Werbeunternehmen, die online bei der datengetriebenen Verbreitung von Werbung zentrale Positionen einnehmen. Sie sollen deshalb gegen die genannten Probleme vorgehen. Webseiten, die hauptsächlich Falschinformationen verbreiten und damit Geld verdienen, sollen möglichst vom Werbemarkt abgeschnitten werden. Hier kommt Google ins Spiel. Denn das Unternehmen betreibt ein großes Werbenetzwerk, über das Werbetreibende in Echtzeit-Auktionen Anzeigen an genau spezifizierte Nutzergruppen ausspielen können. Die Werbeanzeigen werden dabei nicht nur auf den Google-eigenen Seiten der Suchmaschine angezeigt. Tatsächlich nutzt ein Großteil der Webseiten im Internet Googles Netzwerk um Werbeplätze zu verauktionieren. Lässt Google Webseiten, die Desinformationen verbreiten, nicht mehr über sein System Werbeplätze verkaufen, könnte damit der Anreiz Desinformationen zu verbreiten, für einige Akteure sinken.

Die beiden Unternehmen sollen außerdem mehr Transparenz herstellen hinsichtlich der Parameter nach denen Werbeanzeigen Nutzern angezeigt werden. Nutzer sollen so verstehen können, warum ihnen ein bestimmter Werbepost angezeigt wird. Zu noch weitergehender Transparenz haben sich beide Plattformen hinsichtlich politischer Werbung verpflichtet. "Hierzu zählen nicht nur Anzeigen, die für bestimmte Kandidaten oder Parteien werben, sondern auch solche, die stark politisierte Themen wie z.B. Einwanderung behandeln. (https://de.newsroom.fb.com/news/2019/03/unsere-massnahmen- zum-schutz-der-europawahl/)". Facebook hat dafür unter dem Titel "Werbebibliothek (https://www. facebook.com/ads/library/)" ein Archiv- und Transparenzsystem aufgesetzt. Darüber sollen Nutzer aber auch Regulierungsbehörden, Journalisten und Wissenschaftler die Möglichkeit bekommen, alle geschalteten politischen Werbeanzeigen samt Daten zur Verbreitung einzusehen. Die Identität von Werbetreibenden soll außerdem überprüft werden und sie müssen nachweisen, dass sie ihren Sitz in dem Land haben, das Ziel der politischen Werbung ist. Auch Google will ein durchsuchbares Werbeanzeigen-Archiv zu Verfügung stellen und mehr Transparenz bei politischen Werbeposts herstellen.

2. Verbreitungsmechanismen

Google und Facebook sind entscheidende Plattformen für die Verbreitung von Informationen im Digitalen. Diese Plattformen sollen daher "in Technologien investieren, die relevante, authentische und korrekte Informationen priorisieren, sei es in Suchergebnissen, Feeds oder anderen automatisch zusammengestellten Verbreitungswegen".[3] In Facebooks Newsfeed, Googles Suchergebnissen und YouTubes Video-Empfehlungen sollen also vermehrt solche Inhalte angezeigt werden, die faktisch korrekt sowie seriös sind und aus verlässlichen Quellen stammen. Was wie eine Selbstverständlichkeit klingt, ist bei näherem Hinsehen eine gewaltige Aufgabe. Denn lange Zeit funktionierten diese algorithmischen Sortierungs- und Verteilungssysteme nach ganz anderen Maßgaben: In den Feeds

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 117 der Facebook-Nutzer sollten vor allem solche Inhalte erscheinen, die Nutzer zum Verbleib auf der Seite und zur Interaktion anregen. In der Praxis waren das meist emotionalisierende und affirmative Fotos, Videos und Informationen. Googles Suchergebnisse sollten Nutzern vor allem das anzeigen, was sie sehen wollten. Und in YouTubes Video-Empfehlungen fanden sich vor allem Videos, bei denen ein Algorithmus errechnet hatte, dass diese Videos am wahrscheinlichsten dafür sorgen, dass Nutzer weiter Videos schauen und Zeit auf YouTube verbringen würden. Die teilweise Abkehr davon stellt die Plattformen vor gewaltige Fragen: Woher weiß ein automatisiertes System, ob ein Text Fakten korrekt wiedergibt? Woher weiß es, dass ein Video keine Verschwörungstheorien propagiert? Und sollten solche Entscheidungen überhaupt unter Aufsicht amerikanischer Unternehmen automatisiert gefällt werden? Diese Fragen haben weder die Plattformen noch Regulierungsbehörden, Politik oder Wissenschaft endgültig beantwortet. Einige konkrete Maßnahmen wurden aber bereits implementiert: Bei Facebook werden vertrauenswürdige Quellen im Newsfeed priorisiert ausgespielt, während irreführende Inhalte abgewertet werden und dementsprechend seltener Nutzern angezeigt werden. Facebook arbeitet dafür auch mit externen journalistischen Organisationen zusammen, die Fakten überprüfen. In Deutschland sind das das gemeinnützige Recherchebüro Correctiv und die Deutsche Presse-Agentur. Auch YouTube hat angekündigt sogenannten "Borderline Content", vor allem Videos, die Verschwörungstheorien verbreiten, seltener zu empfehlen.

3. Kampf gegen Fake-Accounts und Bots

Für die Verbreitung und Verstärkung von Desinformation wird häufig auf Fake-Accounts und Bots zurückgegriffen. Fake-Accounts sind Nutzerkonten, die vorgeben einen real existierenden Menschen zu repräsentieren und von diesem gesteuert zu werden. Fake-Accounts können entweder von Menschen oder automatisiert (also von Bots) gesteuert werden. Facebook selbst schätzt, dass 3-4 % aller Nutzerkonten Fake-Accounts sind.[4] Bei über 2,2 Milliarden monatlich aktiven Nutzern kommt man da auf die beachtliche Menge von 66-88 Millionen gefälschten Accounts. Das Problem betrifft aber auch Google, das mit seiner Tochterfirma YouTube ebenfalls eine Plattform betreibt, über die Fake-Accounts agieren können. Beide Firmen gehen bereits gegen solche Accounts vor und das nicht erst, seit die EU es von ihnen verlangt. Firmeneigene Sicherheitsteams beobachten Accounts und es werden auch Algorithmen genutzt, die anhand verschiedener Datensignale Accounts, die wahrscheinlich keine realen Personen repräsentieren, erkennen können. Diese Anstrengungen liegen durchaus im Interesse der Plattformen selbst. Denn nur so können sie Nutzern ein Umfeld bieten, in dem sie sich gern aufhalten. Diese Form der Online-Hygiene ist ein elementarer Bestandteil der Dienstleistung von digitalen Plattformen.

Förderung von Medienkompetenz sowie journalistischen und technologischen Projekten

"Die lebenslange Entwicklung kritischer und digitaler Medienkompetenz insbesondere junger Menschen" sei von entscheidender Bedeutung im Kampf gegen Desinformation, schreibt die EU Kommission in ihrem Konzept zur "Bekämpfung von Desinformation im Internet (https://eur-lex.europa. eu/legal-content/DE/TXT/?uri=CELEX%3A52018DC0236&from=EN&lang3=choose&lang2=choose&lang1= DE)". Um Medienkompetenz zu vermitteln, wurden mehrere Projekte und Initiativen gestartet. So fand Ende März 2019 die European Media Literacy Week statt, eine Aktionswoche mit 42 Veranstaltungen in zahlreichen europäischen Ländern. Ziel war es dabei unter anderem verschiedene Organisationen, die bereits im Bereich Medienkompetenz tätig sind, zu unterstützen und miteinander zu vernetzen. Ob die Anstrengungen der EU aber langfristig wirksam sein können, bleibt abzuwarten. Denn Einfluss auf Lehrpläne in EU-Mitgliedsstaaten hat die EU nicht.

Im Rahmen des EU-Förderprogramms "Horizon 2020", das bis zum Jahr 2020 mit knapp 80 Milliarden Euro zahlreiche Forschungs- und Innovationsprojekte aus unterschiedlichsten Bereichen fördern soll, werden auch Projekte gefördert, die technische Instrumente zur Erkennung und Überprüfung von Inhalten entwickeln sollen. Dabei geht es konkret um Fragen wie: Wer ist die Ursprungsquelle für einen Social Media-Post? An welchen Datensignalen lassen sich möglicherweise gefälschte Posts

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 118 erkennen? Wie sollten Software-Tools aussehen, mit denen Fact-Checker schnell Videos auf ihre Echtheit prüfen können? Solche neuen Tools sollen auch journalistischen Faktencheck-Teams zur Verfügung gestellt werden. Teil der EU Maßnahmen ist es, ein unabhängiges europäisches Netz von Fact-Checkern zu knüpfen. Dafür wurden Workshops abgehalten. Die Kommission räumt in einem Zwischenbericht aber selbst ein, dass die Bemühungen, Fact-Checking zu stärken, bislang nicht zum gewünschten Ziel geführt haben. So wird nur ein Teil der EU-Länder durch das entstandene Fact-Checking Netzwerk abgedeckt und die Faktenprüfer sind laut EU "nicht in der Lage, mit der zunehmenden Menge an Online- Nachrichten Schritt zu halten".[5] In einem zweiten Schritt soll deshalb eine "sichere europäische Online-Plattform zum Thema Desinformation" eingerichtet werden. Darüber sollen Faktenchecker aus der gesamten EU miteinander sowie mit unabhängigen Wissenschaftlern vernetzt werden. Wann diese Plattform kommen und wie sie genau ausgestaltet sein wird, ist aber noch unklar.

Aufbau eigener Informationsangebote

Bereits 2015 nahm die EU East StratCom Task Force (Strategisches Kommunikationsteam Ost) die Arbeit auf.[6] 16 Mitarbeiter arbeiten dort an Inhalten und Kampagnen, die in östlich von Europa gelegenen Ländern, mit denen die EU Partnerschaftsabkommen geschlossen hat, verbreitet werden sollen. Damit soll russischen Desinformationskampagnen entgegengewirkt werden (European External Action Service 2018). Nach eigener Aussage hat die Task Force zwischen September 2015 und Frühjahr 2019 rund 4500 Fälle von Desinformation (https://eeas.europa.eu/topics/countering- disinformation/59411/countering-disinformation_en) identifiziert. Angesichts des geringen Budgets (2019: 3 Millionen Euro) und der schmalen personellen Ausstattung ist fraglich, wie effektiv und weitreichend die Bemühungen der Task Force sind. Auch werfen solche staatlich initiierten Medienprojekte Fragen nach der Wahrhaftigkeit und Glaubwürdigkeit von ihr verbreiteter Inhalte auf.

Die skizzierten Maßnahmen und Strategien zeigen, dass die EU um eine umfassende Reaktion auf das Problem digitaler Desinformation bemüht ist. Allerdings stellt sich die Frage, wie nachhaltig diese Bemühungen sind. Die Regulierung der großen Plattformen verlässt sich vor allem auf Selbstverpflichtungen und kleinere Plattformen oder auch geschlossene Kommunikationsräume (z.B. Messenger-Dienste oder geschlossene Chat-Räume auf Servern kleinerer Unternehmen), über die ebenfalls Falschinformationen verbreitet werden können, sind von diesen Selbstverpflichtungen ohnehin nicht betroffen. Auch welche nachhaltigen Ergebnisse die Förderung von Medienkompetenz und Fact-Checking haben wird, bleibt abzuwarten. Schließlich handelt es sich um Bereiche, die sich nicht ausschließlich per Dekret regulieren lassen. Die EU wählt wohl auch deshalb eher behutsame Schritte, um einen Konflikt mit einem Grundrecht zu vermeiden: Denn wer gegen Desinformationen vorgeht, läuft auch immer Gefahr, das Recht auf Meinungsfreiheit zu tangieren.

Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/ de/ (http://creativecommons.org/licenses/by-nc-nd/3.0/de/) Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc- nd/3.0/de/ Autor: Stephan Mündges für bpb.de

Fußnoten

1. Einen umfassenden Überblick dazu aus EU-Sicht bietet die Mitteilung der Kommission zur " Bekämpfung von Desinformation im Internet" (https://eur-lex.europa.eu/legal-content/DE/TXT/? uri=CELEX%3A52018DC0236&from=EN&lang3=choose&lang2=choose&lang1=DE). 2. Der Verhaltenskodex wurde auch von einigen weiteren Branchenverbänden sowie der Mozilla Foundation unterschrieben. Da diese in den relevanten Bereichen aber eher untergeordnete Rollen spielen, wird sich im Folgenden auf die angestrebten Maßnahmen und ihre praktische Umsetzung durch Google und Facebook konzentriert.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 119

3. Übersetzung des Autors aus dem "Code of Practice on Disinformation (https://ec.europa.eu/digital- single-market/en/news/code-practice-disinformation)". 4. Facebook Baseline Report on Implementation of the Code of Practice on Disinformation, S. 4, publiziert am 29.1.2019 (PDF (http://ec.europa.eu/information_society/newsroom/image/ document/2019-5/facebook_baseline_report_on_implementation_of_the_code_of_practice_on_­ disinformation_CF161D11-9A54-3E27-65D58168CAC40050_56991.pdf)). 5. Europäische Kommission: Bericht der Kommission über die Umsetzung der Mitteilung " Bekämpfung von Desinformation im Internet: ein europäisches Konzept" vom 5.12.2018 (PDF (https://ec.europa.eu/transparency/regdoc/rep/1/2018/DE/COM-2018-794-F1-DE-MAIN-PART-1. PDF)), S. 7. 6. Für die Angaben dazu siehe die offizielle EU-Mitteilung "Questions and Answers about the East StratCom Task Force (https://eeas.europa.eu/regions/eastern-europe/2116/questions-and- answers-about-east-stratcom-task-force_en)" vom 5.12.2018.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 120

Katz-und-Maus-Spiel mit Desinformation: Die Möglichkeiten und Grenzen von Faktenchecks

Von Alexander Sängerlaub 2.5.2019 leitet das Projekt "Desinformation in der digitalen Öffentlichkeit" der Stiftung Neue Verantwortung. Der Publizist gründete im Jahr 2014 das Magazin "Kater Demos", welches sich gesellschaftlichen Megathemen im Sinne des "Constructive Journalism" widmet.

Digitale Öffentlichkeiten konfrontieren Demokratien mit neuen Herausforderungen und das Publikum mit Kognitionsproblemen. Die Richtigstellung von Falschmeldungen kann zwar mit deren Verbreitung nur bedingt mithalten, ist aber ein wichtiger Schritt auf dem Weg in eine gut informierte und medienkompetente "journalistische Gesellschaft".

Correctiv (https://correctiv.org/), der Faktenfinder der ARD (https://faktenfinder.tagesschau.de/) und der Faktenfuchs des BR (https://www.br.de/nachrichten/faktenfuchs-faktencheck,QzSIzl3) – das sind drei der Angebote, die im Vorlauf der Bundestagswahl 2017 entstanden sind, um gegen Desinformation in der digitalen Öffentlichkeit mit sogenannten "Faktenchecks" vorzugehen. Die Idee dahinter: falsche Informationen richtigstellen, aufklären über deren Ursprung, die Bevölkerung über Desinformationskampagnen informieren. Desinformation? Das können mutwillig aus dem Kontext gerissene Zitate von Politikern sein, aber auch Memes, also Bilder mit falscher Beschriftung oder manipulierten Abbildungen. Und auch Videos gehören dazu, wie die von Rechtspopulisten, die Lügen über die Tathergänge in Chemnitz verbreiteten[1].

Die sozialen Netzwerke von Facebook bis YouTube sind der Ort, an dem die Falschinformationen sich am schnellsten verbreiten. Aber auch zuweilen klassische Medien fallen auf Falschinformationen herein oder verbreiten diese versehentlich weiter, wenn die nötige Zeit für Verifikation und saubere Arbeit auf der Strecke bleibt, oder Desinformation bewusst gestreut wird. So im Falle der Geschichte über "107 Lungenärzte", welche die Sinnhaftigkeit von Grenzwerten bei Stickoxiden in Frage stellten und deren Aussagen breitflächig in allen Medien Widerhall fanden. In einer aufwendigen Nachkonstruktion durch die taz (http://www.taz.de/!5572843/) war einige Tage später klar: die Zahlen zur Grundlage der Berechnung waren falsch, ebenso die dahinter liegende theoretische Annahme und – obendrein – hat der führende Kopf hinter dem Aufruf zu dem Thema selbst nie geforscht.

Herausforderungen durch ein neues, digitales Medienökosystem

Wo etablierte Medien schon zuweilen scheitern, ist es in den Räumen der sozialen Netzwerke noch schwieriger für die Bürgerinnen und Bürger richtige von falschen Informationen zu trennen, die stakkatoartig auf sie einprasseln. Trennungsgebot von Tatsachen und Meinung? Trennung von Journalismus und PR? Unterscheidung zwischen Laieninhalten und Qualitätsangeboten? All das, was in klassischen Medienangeboten der Fall sein sollte, existiert in den sozialen Netzwerken nicht. Allen, die an den Diskursen in den sozialen Netzwerken teilnehmen, wird dabei eine sehr hohe Medienkompetenz abverlangt: Im Schnellverfahren muss man entscheiden, ob eine Quelle vertrauenswürdig, der Inhalt korrekt oder eine Aussage im richtigen Kontext erscheint. Die Rückmeldungen anderer Nutzer durch Emoticons, wie bei Facebook in Form von Emotionen wie Wut und Trauer, sind dabei eher ein Hinweis für das Erregungspotenzial oder den Sensationsgrad, statt für die Güte der Information.

Die Art und Weise, wie Menschen Nachrichten und Informationen beispielsweise via Facebook konsumieren, scheint dabei zusätzliche Kognitionsprobleme zu verursachen. In der Liste der

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 121

Wahrnehmungsfehler ist dabei vor allem der Confirmation Bias (Bestätigungsfehler) hervorzuheben: " Wissenschaftler haben beobachtet, dass viele Leute eher zum Zeitvertreib in sozialen Netzwerken surfen, aber weniger, um gezielt Nachrichten zu lesen. Sie sind entspannter, nehmen Inhalte eher nebenbei wahr, lesen oft nur Schlagzeilen. Auf den Link zum ausführlichen Artikel klicken sie nicht so oft. In solchen Phasen neigen Menschen dazu, eher Informationen wahrzunehmen, die ihr eigenes Weltbild bestätigen. Die Gefahr: Passt eine Fake News zum Weltbild eines Nutzers, wird sie weniger oft hinterfragt und eher geglaubt. (http://faktenfinder.tagesschau.de/hintergrund/studien-fake- news-101.html)"

Mit der Auslagerung "journalistischen Kompetenzen" auf die Nutzerinnen und Nutzer, entfällt damit auch zunehmend das "Gatekeeping", also das einordnen und aufbereiten, durch den Journalismus. Vor allem populistische und extremistische Kräfte nutzen diese Verwerfungen und offenen Flanken des Mediensystems aus, um Desinformation zu streuen – in dafür eigens errichteten Medienangeboten, auf Facebook, auf Twitter, auf YouTube und anderen Plattformen. Das Ziel: Diskurse zu torpedieren, das Vertrauen in Medien und Demokratien zu schwächen und die eigene Anhängerschaft zu mobilisieren – notfalls mit allen Mitteln. "Hate Speech" als mögliche Begleiterscheinung ist damit eng an Desinformation gekoppelt.

Mit der Verschiebung der Verifikation der Inhalte auf den Zeitpunkt nach der Publikation, versucht nun das Fact-Checking Abhilfe zu schaffen, um verbreiteten Desinformation etwas entgegen zu setzen. Doch der Erfolg des nachträglichen Fact-Checkings scheint fraglich. Die bisherigen empirischen Erkenntnisse sind zuweilen ernüchternd: So verbreiten sich beispielsweise Unwahrheiten im Netz gleich sechsmal schneller als wahre Nachrichten (https://science.sciencemag.org/content/359/6380/1146. full), konstatiert des Massachusetts Institute of Technology (MIT), bei der über 125.000 auf Twitter geteilte Beiträge untersucht wurden (zwei Drittel von ihnen waren dabei faktisch falsch).

Formen des Faktenchecks

Ohne Zweifel ist es keine Möglichkeit, Desinformation unkommentiert auf den Plattformen oder in den Medien stehenzulassen. Korrekturen sind nur nicht notwendig, sondern auch eine Frage der Redlichkeit des jeweiligen Anbieters diese kenntlich zu machen. In der Regel lassen sich vier verschiedene Formen des Fact-Checkings unterscheiden:

1. Fact-Checking direkt auf den Plattformen: Hier sind für Deutschland vor allem die Angebote von Correctiv und neuerdings auch der Deutschen Presse-Agentur (dpa) zu verstehen, die mit Google und Facebook zusammenarbeiten, um Falschinformationen direkt auf den Plattformen zu begegnen.

2. Fact-Checking als eigenes Ressort: Manche Medienangebote, wie tagesschau.de, haben für das Fact-Checking ein eigenes Ressort – in diesem Falle den "Faktenfinder" – geschaffen.

3. Fact-Checking als klassische journalistische Leistung: Auch klassische journalistische Angebote (wie im Beispiel oben die taz) überprüfen zuweilen die Inhalte anderer Medien und stellen diese richtig, ohne dafür eigene Ressortstrukturen zu schaffen.

4. Crowd-Fact-Checking: Gerade in den sozialen Netzwerken kommen auch Bürgerinnen und Bürger zum Einsatz, die ebenfalls Fact-Checking betreiben können. Angebote, wie die Reporterfabrik (https://reporterfabrik.org/), versuchen dabei die Medienkompetenz zu stärken, um Menschen auf die heutige "journalistische Gesellschaft" vorzubereiten.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 122

Grenzen des Fact-Checking

Die größte Hürde für den Erfolg der Fact-Checking liegt nunmehr ebenso in der Logik der Sache: im Zeitversatz zwischen der Veröffentlichung einer Falschinformation und deren Richtigstellung. Je schneller man reagiert, desto höher ist die Wahrscheinlichkeit, dass sich falsche Informationen nicht weiterverbreiten. Doch die Praxis zeigt – zwischen der Veröffentlichung einer "Fake News" und deren Korrektur können bisweilen schon einmal 24 bis 72 Stunden liegen. Sowohl, weil das Richtigstellen teils aufwendige journalistische Recherchen erfordert, oder die Verbreitung der Falschinformation erst viel später festgestellt wird.[2]

Sind Fake News erst einmal lange im Netz, wird es komplizierter mit der Richtigstellung auch noch Reichweite zu erzielen. Die Veröffentlichung von Informationen in Echtzeit, die heutzutage bedingt das Medienrealität und Realität gleichzeitig sind, ist nicht wieder rückgängig zu machen. Die Folge: Es kann in der Regel erst anschließend geprüft werden, ob eine Information richtig oder falsch ist. Wer nun Desinformation verbreitet, macht sich diese Logik zu Nutze. Die Fact-Checking-Institutionen können somit erst im Nachhinein überprüfen und reagieren. Je nachdem wie aufwendig die Gegenrecherche ist, braucht es Zeit, um "alternative Fakten" zu enttarnen. In der Zwischenzeit haben sich Fake News, gerade wenn sie "Negativismus" oder "Überraschung" beinhalten, bereits viral verbreitet. Die Richtigstellungen haben es dagegen schwerer die gleiche Wirkmächtigkeit in der Reichweite zu erlangen.

Journalismus kann nicht nur aus der Beschäftigung mit dem Falschen bestehen

Und noch einen entscheidenden Punkt gibt es in der Gleichung: Allein das wir uns als Gesellschaft mit Desinformation beschäftigen müssen, ist der erste Erfolg der Populisten. Denn Desinformation verstopft unsere gesellschaftlichen Diskurse. Wie Geröll müssen wir diese erst mühsam beseitigen, bevor richtige Themen wieder auf die tägliche Medienagenda durchdringen können: "Eine Kultur, die sich vor allem auf die Entlarvung des Falschen konzentriert, bringt deshalb nicht schon etwas Richtiges hervor." schreibt der Zeit-Journalist Tobias Haferkorn (https://www.zeit.de/kultur/2018-01/alternative- fakten-unwort-des-jahres-donald-trump) und fasst damit die nüchterne Erkenntnis der großen amerikanischen Zeitungen New York Times und Washington Post zusammen, dass das bloße Auflisten aller Falschbehauptungen von US-Präsident Trump sich als Prinzip schnell abgenutzt hat. So hat die New York Times beispielsweise ihre Listen über "Trump’s Lies (https://www.nytimes.com/ interactive/2017/06/23/opinion/trumps-lies.html?mtrref=www.google.de&assetType=opinion)" bald nach Amtsantritt wieder eingestellt.

Mit diesen Erkenntnissen auf dem Tableau, lässt sich das Fact-Checking als eine Maßnahme gegen Desinformation neu bewerten. Als Institution der Medienbildung und -kompetenz, Gradmesser für Desinformation in der Öffentlichkeit sowie der Möglichkeit auch über diese Formate Transparenz über das Entstehen öffentlicher Diskurse herzustellen, übernimmt es eine wichtige gesellschaftliche Funktion. Dafür sollten auch Ressourcen und Mittel in größerem Umfang bereitgestellt werden. Denn der beste Schutz vor Desinformationskampagnen ist und bleibt eine gut informierte und mediengebildete Öffentlichkeit sowie das Vertrauen in die Arbeit der journalistischen Institutionen, die versuchen jeden Tag hochwertigen Qualitätsjournalismus zu liefern, ohne der rein datengetriebenen Verlockung der Aufmerksamkeits- und Plattformökonomie zu erliegen. Für uns als "journalistische Gesellschaft" in den digitalen Öffentlichkeiten bedeutet diese Veränderung vor allem eine alte journalistische Weisheit mehr denn je zu berücksichtigen, wenn wir Informationen erstellen, konsumieren oder weiterteilen: "Be first, but first be right."

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 123

Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/ de/ (http://creativecommons.org/licenses/by-nc-nd/3.0/de/) Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc- nd/3.0/de/ Autor: Alexander Sängerlaub für bpb.de

Fußnoten

1. Vgl. Sängerlaub, Alexander/Meier, Miriam/Rühl, Wolf-Dieter: Fakten statt Fakes. Verursacher, Verbreitungswege und Wirkungen von Fake News im Bundestagswahlkampf 2017. Stiftung neue Verantwortung 2018 (PDF (https://www.stiftung-nv.de/sites/default/files/ snv_fakten_statt_fakes.pdf)). 2. Vgl. ebd. S. 4.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 124

Wahlmanipulation: Diese Schutzmaßnahmen treffen Internetkonzerne

Von Karolin Schwarz 2.5.2019 ist freiberufliche Journalistin, Fact-Checkerin und Trainerin. Ihre Arbeit erschien unter anderem beim ARD-Faktenfinder, Kontraste und Buzzfeed News: Sie hält weltweit Vorträge und Schulungen zu Desinformation und Hass im Netz. Im Februar 2016 gründete sie das Projekt Hoaxmap.org, das falsche Berichte über Geflüchtete und People of Color sammelt. Das Projekt wurde unter anderem für den Grimme Online Award und den Journalistenpreis "Der lange Atem" nominiert.

Seit den US-Präsidentschaftswahlen diskutiert man auf der ganzen Welt über Gefahren digitaler Wahlmanipulationen. Als mögliche Werkzeuge für die Beeinflussung von Wahlen gelten verschiedene Formen der digitalen Meinungsmache und Manipulation: Social Bots, Microtargeting, "Fake News" und mögliche Hacks sind nur einige Formen, über die in den Monaten vor dem Urnengang jeweils diskutiert wird.

Vor der Bundestagswahl 2017 herrschte Verunsicherung wegen möglicher Einflussnahmen. Im Vorfeld diskutierte man beispielsweise eine Kennzeichnungspflicht für Social Bots, also automatisiert betriebene Social-Media-Konten, die politische Botschaften verbreiten. Nach den Erkenntnissen aus dem Wahlkampf in den USA wurde ebenfalls vor politischem Microtargeting gewarnt. Social-Media- Plattformen bieten Werbetreibenden die Möglichkeit, Anzeigen auf bestimmte Zielgruppen zuzuschneiden, die man beispielsweise nach Wohnort, Geschlecht, Alter aber auch politischen Vorlieben auswählen kann. Auch über mögliche Leaks, die einem Hackerangriff auf den Bundestag im Jahr 2015 entstammen könnten, wurde im Vorfeld spekuliert (https://www.spiegel.de/netzwelt/ netzpolitik/bundestagswahl-2017-bsi-chef-arne-schoenbohm-warnt-parteien-vor-hacker-angriffen-a-1136542. html). Besonders das Bundesamt für Sicherheit in der Informationstechnik (BSI) und das Büro des Bundeswahlleiters (https://correctiv.org/faktencheck/artikel-faktencheck/2017/09/27/fakesuche-am- wahltag) bereiteten sich daher gezielt auf Manipulationsversuche vor. Tatsächlich hat es vor der Bundestagswahl sowie am Tag des Urnengangs Versuche gegeben, die Wahl zu beeinflussen. Ob diese Versuche erfolgreich waren, bleibt allerdings fraglich.

Auf der Chat-Plattform Discord organisierten sich rechte Gruppierungen, um beispielsweise koordinierte Angriffe auf Politiker, Aktivisten und Medien durchzuführen.[1] In den Chat-Kanälen wurden Anleitungen zur Erstellung von Fake-Accounts verbreitet und über die Verbreitung von Falschmeldungen diskutiert. Vor der Bundestagswahl kursierten einige Falschmeldungen, die vor allem von Akteuren aus Deutschland verbreitet wurden. Die wenigsten erzielten jedoch Reichweiten, die mit den populären Fakes vor der Wahl Donald Trumps vergleichbar gewesen wären. So wurde damals etwa verbreitet, der Papst würde zur Wahl Donald Trumps aufrufen oder Obama hätte den Schwur des Treueeids aus den Schulen verbannt. Diese und andere Fakes (https://www.buzzfeednews.com/ article/craigsilverman/top-fake-news-of-2016#.arE0W0eXR)erzielten jeweils Hunderttausende Reaktionen in Form von Likes, Shares und Kommentaren auf Facebook.

Im Rahmen der Untersuchungen möglicher Wahlbeeinflussung in den USA veröffentlichte Twitter die Namen von mehr als 1.000 Konten (http://faktenfinder.tagesschau.de/inland/trolle-btw17-ira- twitter-101.html), die der russischen Trollfabrik "Internet Research Agency" zugerechnet werden. Darunter waren auch einige Konten, die vor der Bundestagswahl auf Deutsch twitterten und versuchten, Hashtags wie #jugendfürmerkel oder #merkelmussbleiben zu etablieren. Über andere Konten wurden Falschmeldungen über Straftaten Geflüchteter verbreitet. Insgesamt erreichten diese Tweets aber selten viele Interaktionen, also Retweets, Likes oder Antworten anderer Twitter-Nutzer.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 125

Am Wahltag selbst verbreiteten sich über Twitter zahlreiche Falschmeldungen über angebliche Wahlmanipulationen, etwa durch ausradierbare Stifte oder vermeintliche linksextreme Wahlhelfer. Das Social-Media-Team des Bundeswahlleiters reagierte damals offensiv und korrigierte noch am Wahltag Falschmeldungen. Vor und nach der Bundestagswahl 2017 haben zudem die Social-Media-Plattformen einige Versuche unternommen, Manipulationsversuche zu verhindern oder zu beschränken.

Verhaltenskodex der Europäischen Union

Gegenüber der Europäischen Kommission haben sich Facebook, Google und Twitter in einem Aktionsplan zu verschiedenen Maßnahmen verpflichtet, die Versuchen der Wahlbeeinflussung durch Desinformation entgegen wirken sollen. Zu diesem Aktionsplan gehören eine Reihe von Maßnahmen, die im Folgenden erläutert werden sollen. Die Plattformen erstatten gegenüber der Kommission monatlich Berichte (https://ec.europa.eu/digital-single-market/en/news/second-monthly-intermediate- results-eu-code-practice-against-disinformation) über Fortschritte in der Implementierung des Aktionsplans und Maßnahmen gegen Versuche der Einflussnahme.

Facebook und Twitter gehen regelmäßig gegen Fake Accounts vor. Nach eigenen Angaben (https:// newsroom.fb.com/news/2019/04/preparing-for-indian-elections/) verhindert Facebook beispielsweise täglich die Erstellung von einer Million Konten. Ebenso veröffentlichen Social-Media-Plattformen regelmäßig Berichte (https://blog.twitter.com/official/en_us/topics/company/2018/enabling-further- research-of-information-operations-on-twitter.html) über die Aufdeckung von Accounts, die koordiniertes, "unauthentisches Verhalten” aufzeigen. Diese Verhaltensweisen schließen beispielsweise ein, dass mehrere Personen sich in einem kurzen Zeitraum in ein Profil einloggen oder Software genutzt wird, um Twitter-Accounts automatisiert zu folgen.

Datenbanken für politische Werbung

Um politische Werbung rund um die Europawahl zu schalten, müssen Werbetreibende sich bei Facebook, Google und Twitter verifizieren lassen. So müssen unter anderem ein Adressnachweis über den Wohnsitz in einem Land der Europäischen Union sowie ein Ausweisdokument vorgelegt werden, damit Werbung geschaltet werden kann. Facebook und Twitter haben außerdem bereits Datenbanken für politische Werbung auf ihren jeweiligen Plattformen veröffentlicht. Auch Google hat eine solche Datenbank angekündigt, die im April 2019 veröffentlicht werden soll. Für die USA und Indien gibt es sie bereits. Der Aufbau der Datenbanken variiert je nach Plattform. Grundsätzlich können Nutzer jedoch in allen Datenbanken nach ihnen bekannten Konten, beispielsweise von Parteien oder Kandidierenden, suchen. Außerdem kann eingesehen werden, wer eine Anzeige bezahlt hat, welcher Zielgruppe sie ausgespielt wurde und wieviel Geld in etwa ausgegeben wurde. In der Datenbank von Facebook kann zudem nach Stichworten gesucht werden.

Mitte April 2019 sind die Einträge in den Datenbanken noch vergleichsweise überschaubar. Bei Facebook (https://www.facebook.com/politicalcontentads/) wurden zu kaum einem relevanten Begriff Suchergebnisse angezeigt. Bei Twitter (https://ads.twitter.com/transparency) war nur ein einziger politischer Werbetreibender in der Europäischen Union registriert. Mögliche Erklärungen dafür wären einerseits, dass noch nicht mehr Werbetreibende registriert waren oder Werbung geschaltet haben, oder dass die Datenbanken noch nicht so funktionieren, wie sie es sollten.

Zwar kann man sich beispielsweise bei Google Werbeberichte für einen bestimmten Zeitraum ausgeben lassen, in den meisten Fällen müssten Nutzende aber wissen, wonach genau sie suchen. Auch ist unklar, wie eng der Begriff der "politischen Werbung" konkret ist und inwiefern sich die Definition und Identifikation solcher Werbeanzeigen von Plattform zu Plattform unterscheidet. Die Informationen über die jeweils ausgewählten Zielgruppen beinhalten zudem zwar Angaben zu Alter, Geschlecht und Wohnort, nicht aber zu politischen Interessen, die bei der Auswahl von Zielgruppen auch angegeben werden kann. Im Bundestagswahlkampf 2017 fielen auch Werbetreibende auf, die nicht unmittelbar einer Partei

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 126 zugeordnet werden konnten. So schalteten die Betreiber des sogenannten "Greenwatchblog" Anzeigen, die sich negativ auf die Grünen bezogen. Das Blog und alle dazugehörigen Social-Media- Konten (https://www.ndr.de/fernsehen/sendungen/zapp/medienpolitik/Greenwatch-Versuch-anonymer- Einflussnahme,greenwatch100.html) verschwanden mit dem Wahlsonntag, ohne dass bekannt wurde, wer hinter diesen Seiten steckte.

Vorgehen gegen Falschmeldungen und Verschwörungsmythen

Der Umgang mit Falschmeldungen und Verschwörungsmythen fällt je nach Plattform unterschiedlich aus. Facebook, Youtube und Twitter ist jedoch gemein, dass regelmäßig reichweitenstarke Akteure gesperrt werden, die wiederholt gegen die Nutzerrichtlinien verstoßen und zuvor verschwörungsideologische und falsche oder irreführende Inhalte verbreiteten. Facebook arbeitet auf der ganzen Welt mit Medienpartnern zusammen, die Faktenchecks in 24 Sprachen veröffentlichen. In Deutschland übernahm diese Rolle ab 2017 zunächst Correctiv (https://correctiv.org/). Seit Anfang 2019 ist außerdem die Deutsche Presseagentur (https://de.newsroom.fb.com/news/2019/03/ dpa_faktenpruefer/) (dpa) eine solche Kooperation mit Facebook eingegangen. Facebooks Fact- Checking-Partner überprüfen virale Artikel, Videos und Fotos auf ihren Wahrheitsgehalt hin und veröffentlichen Faktenchecks, die wiederum neben oder unter dem Post mit der überprüften Meldung angezeigt werden. Geprüft können werden außerdem Inhalte, die von Facebook-Nutzern als Falschmeldungen gemeldet werden.

Youtube hat begonnen, Videos zu populären Verschwörungsmythen um Informationen aus vertrauenswürdigen Quellen zu ergänzen. Das betrifft bislang allerdings vor allem englischsprachige Inhalte. Außerdem hat Youtube in der Vergangenheit gezielt die Suchergebnisse zu einzelnen Suchbegriffen angepasst (https://www.belltower.news/youtube-aendert-nachrichten-anzeige-verlaessliche- quellen-vor-rechten-blogs-49370/), wenn diese vor allem Falschmeldungen, Verschwörungserzählungen oder veraltete nachrichtliche Inhalte enthielten. Entsprechend wurden dann Inhalte von etablierten Medien zum Thema in den Suchergebnissen bevorzugt.

Google hat zudem ein Tool entwickelt, mit dem Faktenchecks mit bestimmten Metadaten angereichert werden können um so in der Google-Suche besser auffindbar zu sein. In Deutschland wird das Tool von Correctiv und einem inzwischen stillgelegten Fact-Checking-Projekt (https://www.stimmtdas.org/) verwendet. Über den "Fact Check Explorer (https://toolbox.google.com/factcheck/explorer)” können Faktenchecks, die mit dem sogenannten "ClaimReview”-Tool bearbeitet wurden, nach Stichworten oder Faktencheck-Initiativen weltweit durchsucht werden.

Messaging-Dienste

Neben den bereits genannten Maßnahmen haben Technologiekonzerne weitere Maßnahmen ergriffen, um Manipulationsversuche zu unterbinden oder einzudämmen. Whatsapp hat beispielsweise eingeführt, dass einzelne Nachrichten jeweils nur fünf mal weiter geleitet werden können. Desinformation und irreführende Inhalte werden immer häufiger auch auf halb-öffentlichen oder privaten Kanälen verbreitet. Im brasilianischen Wahlkampf beispielsweise wurden Falschmeldungen vor allem über Messenger verteilt (https://www.spiegel.de/netzwelt/apps/brasilien-wahlkampf-mit- gekaufter-whatsapp-flut-a-1234483.html). Im indischen Wahlkampf hat Whatsapp zuletzt in Zusammenarbeit eine Art Hotline (https://www.checkpoint.pro.to/) für Tipps zu vermuteten Falschmeldungen eingerichtet. Allerdings sollen nicht alle Meldungen überprüft und beantwortet werden. Die Daten sollen vor allem der Forschung dienen, denn bislang gibt es wenige wissenschaftliche Arbeiten zu Falschmeldungen in Messaging-Apps.

Die Social-Media-Plattformen haben jeweils unterschiedlich umfangreich auf Gefahren der digitalen Manipulation reagiert. Das Maßnahmenpaket wird sowohl vor als auch nach der Europawahl 2019 noch erweitert werden. Zu den größten Neuerungen gehören die Datenbanken für politische Werbung sowie die monatlichen, öffentlich einsehbaren Berichte der Social-Media-Plattformen an die EU-

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 127

Kommission. Neben den Plattformen liegt es somit auch an Politik, Bildung und Zivilgesellschaft, Manipulationsversuche nicht zuzulassen.

Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/ de/ (http://creativecommons.org/licenses/by-nc-nd/3.0/de/) Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc- nd/3.0/de/ Autor: Karolin Schwarz für bpb.de

Fußnoten

1. Vgl. Davey, Jacob/Ebner, Julia: The Fringe Insurgency. Connectivity, Convergence and Mainstreaming of the Extreme Right. Institute for Strategic Dialogue 2017 (PDF (http://www. isdglobal.org/wp-content/uploads/2017/10/The-Fringe-Insurgency-221017_2.pdf)).

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 128

Presseschau zur Europawahl 2019: Digitale Desinformation und Fake News

Von Erik Meyer 30.5.2019 ist Politikwissenschaftler und arbeitet als freier Journalist und Dozent zur Digitalisierung in Politik, Pop und Erinnerungskultur. Er ist Autor von „Zwischen Partizipation und Plattformisierung: Politische Kommunikation in der digitalen Gesellschaft“ (2019)

Ein Blick auf deutsch- und englischsprachige Faktenchecks und die Berichterstattung zum Thema Digitale Desinformation mit Beiträgen zum Thema aus sozialen Medien und Linktipps.

30.5.2019: Cheapfakes und Faktenchecks

Bernd Oswald hat sich für den #faktenfuchs des Bayrischen Rundfunks mit diversen Vorwürfen, die gegen eine ordnungsgemäße Durchführung der Europawahl vor allem im Netz vorgebracht wurden, beschäftigt. Sein Fazit: "Die Europawahlordnung lässt den Kommunen, die für die Durchführung der Wahl verantwortlich sind, einigen Spielraum, was die Beschaffenheit der Urnen, der Stifte und sogar die Anzahl der Stimmzettel betrifft. Deswegen ist vieles rechtens, was Wahlbeobachter oder Wähler für einen Verstoß halten. Wer dennoch glaubt, einen Verstoß gegen die Wahlordnung beobachtet zu haben, kann beim Bundestag Einspruch einlegen."

BR24 #Faktenfuchs: Was ist bei der Europawahl schiefgelaufen? (https://www.br.de/nachrichten/ deutschland-welt/faktenfuchs-was-ist-bei-der-europawahl-schief-gelaufen,RRmBBEO) Im Netz kursierten vor allem am Wahltag Fotos von nicht versiegelten Wahlurnen, manchmal mit der Bemerkung, das sei doch Wahlbetrug. Tatsächlich schreibt §44 der Europawahlordnung weder eine Versiegelung noch eine Verplombung der Wahlurnen vor. Verboten ist ein Siegel aber auch nicht. Manche Gemeinden bringen ein amtliches Papiersiegel auf den Urnen an.

Seit dem US-Präsidentschaftswahlkampf 2016 ist folgendes Phänomen bekannt: In Nordmazedonien existiert eine finanziell motivierte Produktion von Falschmeldungen für den US-Markt. Simon Oxenham liefert nun für die BBC das Porträt einer Person, die in diesem Kontext tätig war: "Tamara’s job was to rewrite the original US articles so that they couldn’t be detected as plagiarised text, as well as making them more compact and even more likely to be shared on social media, generating Google ad revenue for Marco’s site. A similar fake news site based out of Veles with around a million Facebook likes has been claimed by its owner to be able to make upwards of $2,000 per day in an interview with CNN. Marco ran two sites, which Tamara told me had more than two million Facebook followers combined."

BBC 'I was a Macedonian fake news writer (http://www.bbc.com/future/story/20190528-i-was-a- macedonian-fake-news-writer)' If you ignored the content, the typical day of a "fake news" writer would seem like any office job. Every morning, Tamara would open her laptop to a fresh email with a link to a spreadsheet. This document contained eight stories based on the other side of the world from her, in the US.

Die EU DisinfoLab Conference endete gestern mit einem Statement des britischen EU-Kommissars für die Sicherheitsunion, Julian King. Die Denkfabrik Institute for Strategic Dialogue nimmt dies zum

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 129

Anlass auf einen kürzlich erschienen Report zu "Propaganda and Digital Campaigning in the EU Elections" hinzuweisen. Zu dessen vorläufigen Ergebnissen zählt die Wahrnehmung eines Paradigmenwechsels: "A shift away from ‘information warfare’ to ‘narrative competition’ with the promotion of ‘culture wars’ around issues like migration, Muslims in Europe, family vs. progressive values and increasingly climate policy."

(https://twitter.com/ISDglobal/status/1133768028271927296)

Außenminister hat die Konferenz FUTURE AFFAIRS -“Digital Revolution: Resetting global power politics?” mit einer Rede eröffnet. Zu Beginn nimmt er auf die Europawahl Bezug: "Im Vorfeld der Wahl wurde viel über die Gefahren durch sogenannte 'Fake News' und Desinformation in den sozialen Medien gesprochen. Doch ihr Effekt war weitaus geringer bei dieser Wahl, als das viele angenommen haben. Vielleicht sind wir auch einfach wachsamer geworden. Das Beben im Netz, die Welle der Mobilisierung vor allen Dingen bei Erstwählern, wurde nicht etwa durch Tweets von Rechtspopulisten oder russischen Bots ausgelöst."

Auswärtiges Amt Rede von Außenminister Heiko Maas zur Eröffnung der Konferenz FUTURE AFFAIRS -„Digital Revolution: Resetting global power politics?" (https://www.auswaertiges-amt.de/de/ newsroom/maas-future-affairs/2222076) Europa hat gewählt. Am Sonntag wurde über ein neues Europäisches Parlament abgestimmt und nun mehren sich die Analysen dazu, welchen Einfluss soziale Medien bei dieser Wahl hatten. Doch die Debatte wird in diesen Tagen anders geführt, als wir das vielleicht vor ein paar Wochen noch erwartet hätten.

Während das veränderte Video der Sprecherin des US-Repräsentantenhauses eher ein "Cheapfake " war, setzt sich das auslandsjournal des ZDF mit dem manipulativen Potenzial von Deepfakes auseinander: "Macht, Lügen und Videos: Wie gefälschte Bilder Politik machen" heißt der Beitrag von Elmar Theveßen, der in der Mediathek verfügbar ist:

ZDF Auslandsjournal Die Sendung vom 29. Mai 2019 (https://www.zdf.de/politik/auslandsjournal/auslandsjournal- vom-29-mai-2019-100.html) Das "auslandsjournal" - Reportagen, Hintergründe, außergewöhnliche Menschen und bunte Geschichten. Die ZDF-Korrespondenten erklären die Welt.

Eine ausführliche Einordnung der Problematik aus der Perspektive digitaler Desinformation liefern die Juristen Robert Chesney, Danielle Citron und Quinta Jurecic im Lawfare Blog: "Though it is relatively easy in theory to debunk most cheapfakes - particularly if they manipulate recordings of events for which reliable, authentic copies are available—the sad fact remains that real recordings usually fail to catch up to the salacious fakes. And far too often, the fakery is believed, particularly when the thrust of the fraud tends to confirm preexisting beliefs."

Lawfare About That Pelosi Video: What to Do About 'Cheapfakes' in 2020 (https://www.lawfareblog.com/ about-pelosi-video-what-do-about-cheapfakes-2020) In the summer of 2016, a meme began to circulate on the fringes of the right-wing internet: the notion that presidential candidate Hillary Clinton was seriously ill. Clinton suffered from Parkinson's disease, a brain tumor and seizures, among other things, argued Infowars contributor Paul Joseph Watson in a YouTube video.

Nancy Pelosi hat sich in der Angelegenheit nun selbst zu Wort gemeldet und nimmt die Weigerung Facebooks, das Video zu löschen, zum Anlass für folgenden Vorwurf im Hinblick auf die irreführenden Inhalte der russischen Internet Research Agency im US-Präsidentschaftswahlkampf 2016: "'We have

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 130 said all along, poor Facebook, they were unwittingly exploited by the Russians. I think wittingly, because right now they are putting up something that they know is false." (...) I think they have proven - by not taking down something they know is false - that they were willing enablers of the Russian interference in our election.'"

KQED Nancy Pelosi: Doctored Videos Show Facebook 'Willing Enablers' of Russians in 2016 (https:// www.kqed.org/news/11750792/nancy-pelosi-doctored-videos-show-facebook-willing-enablers- of-russians-in-2016) Asked what she makes of those statements, Pelosi said it's not unusual for Trump to lie, though she did not use that word. "That the president does not speak truth, that should not be news to anyone," she said. "Actually, when the president speaks you should turn it upside down."

Für das Recherchezentrum Correctiv setzt sich Cristina Helberg im Anschluss an die Debatte um das Rezo-Video damit auseinander, ob es spezielle Regeln für Youtube-Wahlempfehlungen gibt. Ihr Fazit: "Rein rechtlich ist den Youtubern für ihre Wahlempfehlung nichts vorzuwerfen. Und auch die deutsche Presse könnte Wahlempfehlungen abgeben, wenn sie wollte. In anderen Ländern sind klare Positionierungen für oder gegen Kandidaten und Parteien durchaus normal." correctiv.org Debatte um Wahlempfehlungen von Medien und Youtubern: Was ist erlaubt? (https://correctiv. org/faktencheck/hintergrund/2019/05/29/debatte-um-wahlempfehlungen-von-medien-und-youtubern- was-ist-erlaubt) Nachdem die CDU-Vorsitzende Kramp-Karrenbauer die Wahlempfehlung von Youtubern mit Meinungsmache in Zeitungen verglichen hat, diskutiert Deutschland über den Umgang mit politischen Kommentaren. Was ist gesetzlich erlaubt und wie sieht es in anderen Ländern aus? Unser Faktencheck liefert die Antworten.

Auch der Youtuber Rezo hat ausführlich zu den Vorwürfen gegen sein Video "Die Zerstörung der CDU" Stellung genommen. Gegen die Behauptung, er verbreite darin Fake News, verweist er in seinem Thread auf Faktenchecks: "Für die einen waren neben kleinen Fehlern die Kernthesen gut belegt, für die anderen hab ich Propaganda mit Pseudo-Fakten gemacht. Es gab sogar Faktenchecks der Faktenchecks, wo sich die Journalisten gegenseitig wieder Fehler aufgezeigt haben."

(https://twitter.com/rezomusik/status/1133772854451986432)

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 131

Presseschau vom 30.5.

Von Erik Meyer 30.5.2019 ist Politikwissenschaftler und arbeitet als freier Journalist und Dozent zur Digitalisierung in Politik, Pop und Erinnerungskultur. Er ist Autor von „Zwischen Partizipation und Plattformisierung: Politische Kommunikation in der digitalen Gesellschaft“ (2019)

Cheapfakes und Faktenchecks

Bernd Oswald hat sich für den #faktenfuchs des Bayrischen Rundfunks mit diversen Vorwürfen, die gegen eine ordnungsgemäße Durchführung der Europawahl vor allem im Netz vorgebracht wurden, beschäftigt. Sein Fazit: "Die Europawahlordnung lässt den Kommunen, die für die Durchführung der Wahl verantwortlich sind, einigen Spielraum, was die Beschaffenheit der Urnen, der Stifte und sogar die Anzahl der Stimmzettel betrifft. Deswegen ist vieles rechtens, was Wahlbeobachter oder Wähler für einen Verstoß halten. Wer dennoch glaubt, einen Verstoß gegen die Wahlordnung beobachtet zu haben, kann beim Bundestag Einspruch einlegen."

BR24 #Faktenfuchs: Was ist bei der Europawahl schiefgelaufen? (https://www.br.de/nachrichten/ deutschland-welt/faktenfuchs-was-ist-bei-der-europawahl-schief-gelaufen,RRmBBEO) Im Netz kursierten vor allem am Wahltag Fotos von nicht versiegelten Wahlurnen, manchmal mit der Bemerkung, das sei doch Wahlbetrug. Tatsächlich schreibt §44 der Europawahlordnung weder eine Versiegelung noch eine Verplombung der Wahlurnen vor. Verboten ist ein Siegel aber auch nicht. Manche Gemeinden bringen ein amtliches Papiersiegel auf den Urnen an.

Seit dem US-Präsidentschaftswahlkampf 2016 ist folgendes Phänomen bekannt: In Nordmazedonien existiert eine finanziell motivierte Produktion von Falschmeldungen für den US-Markt. Simon Oxenham liefert nun für die BBC das Porträt einer Person, die in diesem Kontext tätig war: "Tamara’s job was to rewrite the original US articles so that they couldn’t be detected as plagiarised text, as well as making them more compact and even more likely to be shared on social media, generating Google ad revenue for Marco’s site. A similar fake news site based out of Veles with around a million Facebook likes has been claimed by its owner to be able to make upwards of $2,000 per day in an interview with CNN. Marco ran two sites, which Tamara told me had more than two million Facebook followers combined."

BBC 'I was a Macedonian fake news writer (http://www.bbc.com/future/story/20190528-i-was-a- macedonian-fake-news-writer)' If you ignored the content, the typical day of a "fake news" writer would seem like any office job. Every morning, Tamara would open her laptop to a fresh email with a link to a spreadsheet. This document contained eight stories based on the other side of the world from her, in the US.

Die EU DisinfoLab Conference endete gestern mit einem Statement des britischen EU-Kommissars für die Sicherheitsunion, Julian King. Die Denkfabrik Institute for Strategic Dialogue nimmt dies zum Anlass auf einen kürzlich erschienen Report zu "Propaganda and Digital Campaigning in the EU Elections" hinzuweisen. Zu dessen vorläufigen Ergebnissen zählt die Wahrnehmung eines Paradigmenwechsels: "A shift away from ‘information warfare’ to ‘narrative competition’ with the promotion of ‘culture wars’ around issues like migration, Muslims in Europe, family vs. progressive values and increasingly climate policy."

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 132

(https://twitter.com/ISDglobal/status/1133768028271927296)

Außenminister Heiko Maas hat die Konferenz FUTURE AFFAIRS -“Digital Revolution: Resetting global power politics?” mit einer Rede eröffnet. Zu Beginn nimmt er auf die Europawahl Bezug: "Im Vorfeld der Wahl wurde viel über die Gefahren durch sogenannte 'Fake News' und Desinformation in den sozialen Medien gesprochen. Doch ihr Effekt war weitaus geringer bei dieser Wahl, als das viele angenommen haben. Vielleicht sind wir auch einfach wachsamer geworden. Das Beben im Netz, die Welle der Mobilisierung vor allen Dingen bei Erstwählern, wurde nicht etwa durch Tweets von Rechtspopulisten oder russischen Bots ausgelöst."

Auswärtiges Amt Rede von Außenminister Heiko Maas zur Eröffnung der Konferenz FUTURE AFFAIRS -„Digital Revolution: Resetting global power politics?" (https://www.auswaertiges-amt.de/de/ newsroom/maas-future-affairs/2222076) Europa hat gewählt. Am Sonntag wurde über ein neues Europäisches Parlament abgestimmt und nun mehren sich die Analysen dazu, welchen Einfluss soziale Medien bei dieser Wahl hatten. Doch die Debatte wird in diesen Tagen anders geführt, als wir das vielleicht vor ein paar Wochen noch erwartet hätten.

Während das veränderte Video der Sprecherin des US-Repräsentantenhauses eher ein "Cheapfake " war, setzt sich das auslandsjournal des ZDF mit dem manipulativen Potenzial von Deepfakes auseinander: "Macht, Lügen und Videos: Wie gefälschte Bilder Politik machen" heißt der Beitrag von Elmar Theveßen, der in der Mediathek verfügbar ist:

ZDF Auslandsjournal Die Sendung vom 29. Mai 2019 (https://www.zdf.de/politik/auslandsjournal/auslandsjournal- vom-29-mai-2019-100.html) Das "auslandsjournal" - Reportagen, Hintergründe, außergewöhnliche Menschen und bunte Geschichten. Die ZDF-Korrespondenten erklären die Welt.

Eine ausführliche Einordnung der Problematik aus der Perspektive digitaler Desinformation liefern die Juristen Robert Chesney, Danielle Citron und Quinta Jurecic im Lawfare Blog: "Though it is relatively easy in theory to debunk most cheapfakes - particularly if they manipulate recordings of events for which reliable, authentic copies are available—the sad fact remains that real recordings usually fail to catch up to the salacious fakes. And far too often, the fakery is believed, particularly when the thrust of the fraud tends to confirm preexisting beliefs."

Lawfare About That Pelosi Video: What to Do About 'Cheapfakes' in 2020 (https://www.lawfareblog.com/ about-pelosi-video-what-do-about-cheapfakes-2020) In the summer of 2016, a meme began to circulate on the fringes of the right-wing internet: the notion that presidential candidate Hillary Clinton was seriously ill. Clinton suffered from Parkinson's disease, a brain tumor and seizures, among other things, argued Infowars contributor Paul Joseph Watson in a YouTube video.

Nancy Pelosi hat sich in der Angelegenheit nun selbst zu Wort gemeldet und nimmt die Weigerung Facebooks, das Video zu löschen, zum Anlass für folgenden Vorwurf im Hinblick auf die irreführenden Inhalte der russischen Internet Research Agency im US-Präsidentschaftswahlkampf 2016: "'We have said all along, poor Facebook, they were unwittingly exploited by the Russians. I think wittingly, because right now they are putting up something that they know is false." (...) I think they have proven - by not taking down something they know is false - that they were willing enablers of the Russian interference in our election.'"

KQED

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 133

Nancy Pelosi: Doctored Videos Show Facebook 'Willing Enablers' of Russians in 2016 (https:// www.kqed.org/news/11750792/nancy-pelosi-doctored-videos-show-facebook-willing-enablers- of-russians-in-2016) Asked what she makes of those statements, Pelosi said it's not unusual for Trump to lie, though she did not use that word. "That the president does not speak truth, that should not be news to anyone," she said. "Actually, when the president speaks you should turn it upside down."

Für das Recherchezentrum Correctiv setzt sich Cristina Helberg im Anschluss an die Debatte um das Rezo-Video damit auseinander, ob es spezielle Regeln für Youtube-Wahlempfehlungen gibt. Ihr Fazit: "Rein rechtlich ist den Youtubern für ihre Wahlempfehlung nichts vorzuwerfen. Und auch die deutsche Presse könnte Wahlempfehlungen abgeben, wenn sie wollte. In anderen Ländern sind klare Positionierungen für oder gegen Kandidaten und Parteien durchaus normal." correctiv.org Debatte um Wahlempfehlungen von Medien und Youtubern: Was ist erlaubt? (https://correctiv. org/faktencheck/hintergrund/2019/05/29/debatte-um-wahlempfehlungen-von-medien-und-youtubern- was-ist-erlaubt) Nachdem die CDU-Vorsitzende Kramp-Karrenbauer die Wahlempfehlung von Youtubern mit Meinungsmache in Zeitungen verglichen hat, diskutiert Deutschland über den Umgang mit politischen Kommentaren. Was ist gesetzlich erlaubt und wie sieht es in anderen Ländern aus? Unser Faktencheck liefert die Antworten.

Auch der Youtuber Rezo hat ausführlich zu den Vorwürfen gegen sein Video "Die Zerstörung der CDU" Stellung genommen. Gegen die Behauptung, er verbreite darin Fake News, verweist er in seinem Thread auf Faktenchecks: "Für die einen waren neben kleinen Fehlern die Kernthesen gut belegt, für die anderen hab ich Propaganda mit Pseudo-Fakten gemacht. Es gab sogar Faktenchecks der Faktenchecks, wo sich die Journalisten gegenseitig wieder Fehler aufgezeigt haben."

(https://twitter.com/rezomusik/status/1133772854451986432)

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 134

Presseschau vom 29.5.

Von Erik Meyer 29.5.2019 ist Politikwissenschaftler und arbeitet als freier Journalist und Dozent zur Digitalisierung in Politik, Pop und Erinnerungskultur. Er ist Autor von „Zwischen Partizipation und Plattformisierung: Politische Kommunikation in der digitalen Gesellschaft“ (2019)

Kontroverse Konversation

Der Erfolg der Grünen bei der Europawahl führt auch zu irreführenden Inhalten bezüglich ihrer politischen Positionen. Till Eckert vom Recherchezentrum Correctiv hat im Netz kursierende Angaben überprüft und kommt zu folgendem Schluss: "Drei der Behauptungen sind falsch, eine teilweise richtig und eine richtig." correctiv.org Nach EU-Wahl: Falsche Behauptungen über Partei-Positionen der Grünen im Umlauf (https:// correctiv.org/faktencheck/politik/2019/05/28/nach-eu-wahl-falsche-behauptungen-ueber-partei- positionen-im-umlauf) An den Tagen nach der Europawahl verbreitet sich ein Bild mit mehreren Behauptungen über die Grünen auf Facebook. CORRECTIV hat sie überprüft.

Bei der EU DisinfoLab Conference waren gestern Vertreter der Plattformen eingeladen, doch Facebook war verhindert. Der Vertreter von Google skizzierte etwa den Umgang von YouTube mit Videos, die einen verschwörungstheoretischen Inhalt haben, aber nicht entfernt werden:

(https://twitter.com/mycielski/status/1133396154979377152)

In vielen kritischen Fällen verweist Facebook als Lösungsansatz auf den Einsatz Künstlicher Intelligenz. Das dies etwa bei der Identifikation und Eindämmung problematischer Inhalte auf Grenzen stösst, ist auch Gegenstand der aktuellen Ausgabe des WDR-Podcasts COSMO Tech:

WDR COSMO Tech - Der Podcast für die digitale Welt (https://www1.wdr.de/radio/cosmo/podcast/ tech/cosmo-tech-die-henne-und-das-ai-100.html) Wann übernehmen die Roboter die Weltherrschaft? Wann entwickeln Alexa und Siri ein echtes Bewusstsein? Und wann, verdammt noch mal, geht dieser Hype um künstliche Intelligenz endlich vorbei? Eine Ausgabe zum Runterkommen: Jörg Schieb und Dennis Horn erklären, was KI heute wirklich kann - und was nicht.

Im US-Magazin The Atlantic formuliert Ian Bogost in der Debatte um das manipulierte Video der Sprecherin des US-Repräsentantenhauses eine wichtige Einsicht aus der Perspektive der Plattformen: "The purpose of content is not to be true or false, wrong or right, virtuous or wicked, ugly or beautiful. No, content’s purpose is to exist, and in so doing, to inspire 'conversation' - that is, ever more content. This is the truth, and perhaps the only truth, of the internet in general and Facebook in particular."

The Atlantic There's No Such Thing as a Fake Video (https://www.theatlantic.com/technology/ archive/2019/05/why-pelosi-video-isnt-fake-facebook/590335/) Facebook won't take down a recording of Nancy Pelosi slowed down to make her sound drunk. That's because the social network sees "fakes" as content. Every time another "fake video" makes the round,

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 135 its menace gets rehashed without those discussing it establishing what fakeness means in the first place.

Eine Zusammenfassung relevanter Aspekte, die über das Video und seine Verbreitung bekannt sind, sowie über die diesbezügliche Diskussion, liefert der US-Journalist Judd Legum in seinem Newsletter Popular Information. Er weist gestern unter anderem auf folgende Details hin: "Over 200,000 views of the videos have come in the last two days, when Facebook said it was 'dramatically' reducing its distribution. 566,047 views came from a doctored video published to an unofficial Ivanka Trump page. The administrators of that page are located in Pakistan and Portugal."

Popular 10 million fake views (https://popular.info/p/10-million-fake-views-f95?utm_source=Daily+Lab+ email+list&utm_campaign=2dfdbcda4b-dailylabemail3&utm_medium= email&utm_term=0_d68264fd5e-2dfdbcda4b-396099933) Welcome to the free weekly edition of Popular Information. Today's newsletter is an in-depth look at one of the most profoundly irresponsible political acts in recent memory: the decision by Facebook and Twitter to allow doctored and deceptively edited videos of Nancy Pelosi on their platforms.

Lina Rausch beschäftigt sich im Tagesspiegel unter anderem mit der Frage der Regulierung von Plattformen auf EU-Ebene. Sie hat dazu auch die Antwort eines Vertreters der Initiative "European Digital Rights" eingeholt: "'Wer erfolgreich gegen Hassrede, extremistische Inhalte und Desinformation vorgehen will, muss an die dominanten werbe- und überwachungsgetriebenen Geschäftsmodelle heran', sagt Penfrat. Wenn die Europäische Kommission diesen Weg wählt, wäre das eine Abkehr von den bisher auf Kooperation der Internetgiganten aufbauenden Maßnahmen – gegen beispielsweise Desinformation oder politische Werbung."

Tagesspiegel Wie die EU die Digitalisierung meistern kann (https://www.tagesspiegel.de/politik/der- europaeische-weg-zur-ki-wie-die-eu-die-digitalisierung-meistern-kann/24382446.html) Künstliche Intelligenz (KI) könnte eines Tages selbst komplexeste Aufgaben übernehmen. Deshalb ist „KI made in Europe" eine der drängendsten Aufgabenfelder für die neue EU-Kommission, die voraussichtlich im Herbst die Arbeit aufnehmen wird. In den kommenden Monaten und Jahren stehen richtungsweisende Entscheidungen an, damit die Digitalisierung in Europa ein Erfolg wird.

In der Diskussion im Anschluss an das Rezo-Video hat sich ein Mitglied der Bundesregierung (Dorothee Bär), gegenüber der Presse abweichend von den Vorstellungen der CDU-Vorsitzenden Kramp- Karrenbauer geäußert: "'YouTube-Videos stellen keine Bedrohung dar, wenn dann Fake News oder gezielte Manipulation aus dem Ausland', sagte die CSU-Politikerin der 'Neuen Osnabrücker Zeitung'. 'Wir müssen aber aufpassen, dass wir aus Erstaunen darüber, welche Wucht Diskussionen im Netz entfalten, nicht meinen, übersteuern zu müssen. Die Meinungsfreiheit ist auch im Netz ein hohes Gut."' presseportal.de NOZ: Digital-Staatsministerin Bär: "YouTuber sind keine Bedrohung" (https://www. presseportal.de/pm/58964/4282979) Neue Osnabrücker Zeitung Osnabrück (ots) Digital-Staatsministerin Bär: "YouTuber sind keine Bedrohung" CSU-Politikerin kritisiert AKK: "Entwicklung annehmen statt blocken zu wollen" - " Meinungsfreiheit ist auch im Netz ein hohes Gut" Osnabrück. Digital-Staatsministerin Dorothee Bär hat scharfe Kritik am Ruf von CDU-Chefin Annegret Kramp-Karrenbauer nach "Regeln" für YouTuber geäußert.

Einen Faktencheck zu Fragen, die sich aus den Aussagen von Kramp-Karrenbauer ergeben, unternimmt Johannes Schneider bei Zeit Online. Ein Aspekt: "Hat Rezo wirklich zur 'Zerstörung' der CDU aufgerufen? Nein, er hat sein Video Die Zerstörung der CDU genannt. Dadurch hat er zugleich gesagt, was er in diesem Kontext mit 'Zerstörung' meint: keinen Brandanschlag auf das Konrad-

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 136

Adenauer-Haus, sondern eine harsche inhaltliche Auseinandersetzung, um der Partei erklärtermaßen politisch zu schaden."

Zeit Online YouTube: Worüber spricht Annegret Kramp-Karrenbauer? (https://www.zeit.de/kultur/2019-05/ youtube-annegret-kramp-karrenbauer-akk-rezo-video-meinungsfreiheit) Die CDU-Vorsitzende ist unsicher, welche Rolle YouTuber im öffentlichen Diskurs einnehmen. Das ist verständlich. Ein paar Fragen gilt es dennoch zu klären. Alle Fragen im Überblick: Schwer zu sagen, und es hinge wohl auch immer von der öffentlichen Stimmung, den jeweiligen Themen und den beteiligten Medien ab.

Virulent bleibt die Problematik, dass Nutzer bei Twitter unter Bezugnahme auf eine "Richtlinie zur Integrität von Wahlen" von der Plattform gesperrt wurden. Darauf macht der Verlag Kiepenheuer & Witsch in einem Thread aufmerksam:

(https://twitter.com/KiWi_Verlag/status/1133613831425601536)

Ein Hinweis auf eine aktuelle Publikation in der Zeitschrift Communicatio Socialis kommt aus dem BMBF-Projekt "Erkennung, Nachweis und Bekämpfung verdeckter Propaganda-Angriffe über Online- Medien": "Dieser Beitrag bescha ftigt sich mit der strategischen Verbreitung von Des- information in digitalen O ffentlichkeiten, auch Information Warfare genannt. Neben einem U berblick u ber die aktuelle Forschung stellt dieser Beitrag anhand einer Feldstudie dar, wie eine solche Kampagne aussehen und wie damit erfolgreich umgegangen werden kann."

(https://twitter.com/Kudusch/status/1133378174123945985)

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 137

Presseschau vom 28.5.

Von Erik Meyer 28.5.2019 ist Politikwissenschaftler und arbeitet als freier Journalist und Dozent zur Digitalisierung in Politik, Pop und Erinnerungskultur. Er ist Autor von „Zwischen Partizipation und Plattformisierung: Politische Kommunikation in der digitalen Gesellschaft“ (2019)

Manipulation durch Meinungsmache?

Bernd Oswald hat sich für den Bayrischen Rundfunk mit einem Akteur auseinandergesetzt, der in den sozialen Medien aktuell einen Wahlbetrugsvorwurf erhoben hat: "Im Zentrum dieser Aktivitäten steht die Wahlbeobachter-Kampagne des Vereins 'Ein Prozent', der der 'Identitären Bewegung' nahesteht. Der Verein will den Eindruck erwecken, dass Wahlbetrug in Deutschland ein weit verbreitetes Problem sei. Für systematischen Wahlbetrug gibt es Deutschland aber keinen Beleg."

BR24 Zweifelhafte Wahlbeobachtung für die AfD (https://www.br.de/nachrichten/deutschland-welt/ wahlbeobachtung-wie-rechte-das-wahlsystem-diskreditieren,RRDEJyU) Die Europawahl lief noch nicht mal eine Stunde, da verbreitete sich ein Facebook-Post: "AfD-Stimmen mussten weg: Urne geöffnet". Die Rede war von einer angeblichen Wahlmanipulation in Welden bei Augsburg. Die Urne sei nicht ordnungsgemäß versiegelt gewesen, ein Wahlhelfer habe den Stimmzettel einen Wählers entfernt, der angekündigt hatte, die AfD wählen zu wollen.

Das Netzwerk FactCheckEU, das 19 Initiativen aus 13 Ländern umfasst, zieht ein Fazit des Monitorings irreführender Online-Inhalte während des Wahlkampfs: "A significant part of the disinformation we tackled as FactcheckEU was related to immigration and Muslim Europeans, which is also nothing new. However, without trying too much to predict the future, we can expect another theme to become more prevalent in the years to come: climate and climate activists."

FactCheckEU FCEU-Newsletter Nr. 7 - Gute und schlechte Nachrichten nach dem Wahlwochenende (https:// factcheckeu.info/de/article/fceu-newsletter-7-good-news-and-bad-news-after-election-week-end)

Es ist fertig! Die Wahlen sind beendet! Sprechen wir über die Kampagne auf der Seite der Fehlinformationen.

Der Standard berichtet über eine Studie, in der automatisierte Kommunikation analysiert wurde: "Social Bots, die menschliche Präsenz nur vortäuschen, lassen sich in diesem Zusammenhang mittels eigener von Forschern entwickelten Programme mittlerweile gut identifizieren. Stiegen diese in größere Online- Diskussionen ein, versuchten sie oftmals die dort vorherrschende Stimmungslage mit emotional anders gepolten Beiträgen zu drehen. Auch gab es Versuche, Diskussionen mit polarisierenden, aber thematisch gar nicht dazupassenden Tweets zu kapern, indem etwa Pro-Trump-Beiträge in Umgebungen auftauchten, wo es um Thanksgiving ging." derStandard.at Social Bots lassen sich im Twitter-Dialog nicht entlarven (https://www.derstandard. at/2000103886545/Social-Bots-lassen-sich-im-Twitter-Dialog-nicht-entlarven) Dem Phänomen, dass in Online-Diskussionen zunehmend automatisierte Programme - sogenannte Social Bots - mitmischen, haben sich Wiener Forscher in einer Studie angenommen. Ihr Ergebnis: Vor allem in der Direktkommunikation mit Twitter-Usern schwingen sich die Bots derart gut auf die Stimmung

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 138 im Dialog ein, dass sie nicht mehr als Programme erkannt werden, heißt es am Montag in einer Aussendung.

Susanne Hoffmann beschäftigt sich beim Deutschlandfunk mit dem Browser-Plugin NewsGuard, das für Nutzer Nachrichtenseiten im Netz bewertet: "Philipp Müller, Kommunikationswissenschaftler an der Uni Mannheim, kritisiert, dass kaum eine Differenzierung zwischen den Verlagshäusern stattfindet. 'Bei der Bild-Zeitung steht zum Beispiel als positiver Aspekt, dass eine klare Unterscheidung zwischen Meinung und Nachricht stattfindet. Das würde der Journalismusforscher gerade bei Bild.de nicht unbedingt so sehen.'"

Deutschlandfunk "Newsguard" - Warnschilder gegen gefälschte Nachrichten (https://www.deutschlandfunk.de/ newsguard-warnschilder-gegen-gefaelschte-nachrichten.2907.de.html?dram:article_id=449817) "Hier sieht man, dass faz.net einen Wert von 100 hat. Die erfüllen alle Kriterien. Und PI-News hat einen Score von 17,5. Faz.net hat deswegen ein grünes Label und PI-News hat ein rotes", sagt Stephan Mündges. Der Journalist sitzt vor seinem Computer und scrollt durch die Labels, die er geschrieben hat.

Auch deutsche Medien beschäftigen sich nun mit einem manipulierten Video, das die Sprecherin des US-Repräsentantenhauses zeigt. Anne Hemmes kommentiert beim Bayrischen Rundfunk: "Dass ausgerechnet dieses Video viral geht, zeigt, dass trotz der Diskussionen um die Gefahr von sogenannten Deep Fakes, schon sehr simple Mittel ausreichen, um mit gefälschten Videos zu verwirren und damit die öffentliche Meinungsbildung zu beeinflussen. Denn auch wenn beide Veränderungen in dem Video nicht sehr aufwendig sind, ist doch auf den ersten Blick nicht sofort zu erkennen, dass das Video manipuliert wurde - insbesondere dann nicht, wenn man den Original-Clip nicht vorliegen hat."

BR24 Facebook will Fake-Video von Nancy Pelosi nicht löschen (https://www.br.de/nachrichten/ netzwelt/facebook-will-fake-video-von-nancy-pelosi-nicht-loeschen,RReq4uX) Der CNN-Moderator hakt nach und betont, das Facebook im Nachrichtengeschäft sei, und damit gehe eine Verantwortung einher. Bickert meint daraufhin: "Wir sind nicht im Nachrichtengeschäft, wir sind im Social-Media-Geschäft." Ähnlich äußerte sich Facebook gegenüber der "Washington Post". Auf Nachfrage der Zeitung am Freitag teilte der Konzern mit, dass unabhängige Faktenchecker das Video als "falsch" eingestuft hätten.

In der Süddeutschen Zeitung problematisiert Simon Hurtz, dass Facebook die Verbreitung des Videos nicht unterbindet: "Facebooks Verhalten steht im Gegensatz zu dem von Youtube: Bereits am Donnerstag entfernte die Plattform alle Versionen des Videos. Die Fälschungen verletzten eindeutig Youtubes Richtlinien, welche Inhalte hochgeladen werden dürften, sagte ein Sprecher."

Süddeutsche.de Warum sich Facebook weigert, ein manipuliertes Video zu löschen (https://www.sueddeutsche. de/digital/facebook-nancy-pelosi-fake-video-1.4465264) Ein manipuliertes Video der US-Politikerin Nancy Pelosi verbreitet sich auf Facebook. Die Aufnahme wurde absichtlich verlangsamt, sodass die Demokratin betrunken wirkt. Facebook will die offensichtliche Manipulation nicht löschen: Nutzer, so sagt es ein Sprecher der Plattform, sollten selbst entscheiden, wem oder was sie glauben. Welchen Einfluss gezielte Desinformationskampagnen auf die Europawahl hatten, ist unklar.

Im US-Online-Magazin VentureBeat nimmt Chris O'Brien problematische Profile auf der Plattform in den Blick und beruft sich dabei auf die Aussagen einer Monitoring-Initiative zu aktuellen Fällen in Europa: "Avaaz campaign director Christoph Schott said bad actors’ tactics have evolved, as they now play a long game when it comes to manipulating Facebook’s platform. For instance, he said many of these groups started several years ago under innocuous names and focused on mundane subjects.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 139

At some point, the groups would change names and become funnels for right-wing content targeting people who hadn’t necessarily signed up for such topics."

VentureBeat Facebook still can't control the far-right political propaganda monster it built (https:// venturebeat.com/2019/05/27/facebook-still-cant-control-the-far-right-political-propaganda-monster- it-built/) News about Facebook in the week leading up to the European Union Parliamentary elections reinforced the image of a company unable to control a platform that has been hijacked by right-wing extremists. In the U.S., pundits, politicians, and journalists were shocked - shocked! - that Facebook refused to remove a doctored video of House Speaker Nancy Pelosi.

Ein Mitarbeiter der Stiftung Neue Verantwortung verweist auf die Übersicht einer britischen Denkfabrik, die eine breite Behandlung des Themas "Desinformation" plausibilisiert:

(https://twitter.com/JJaursch/status/1132948043307855873)

Dazu passt ein Tweet zum Vortrag der US-Expertin Renee DiResta bei der EU DisinfoLab Annual Conference, die dieser Tage in Brüssel stattfindet und diverse Aspekte digitaler Desinformation adressiert.

(https://twitter.com/RowanEmslie/status/1133282274538086400)

Neben digitaler Desinformation rückt mit der Diskussion um das Engagement von Youtubern vor der Europawahl in Deutschland schließlich die Dimension der politischen Artikulation in algorithmischen Öffentlichkeiten in den Fokus. Die CDU-Vorsitzende Kramp-Karrenbauer reklamiert Regulierungsbedarf wie diesem Zitat bei Tagesschau.de zu entnehmen ist: "'Und die Frage stellt sich schon mit Blick auf das Thema Meinungsmache, was sind eigentlich Regeln aus dem analogen Bereich und welche Regeln gelten eigentlich für den digitalen Bereich, ja oder nein.' Dies sei eine fundamentale Frage, 'über die wir uns unterhalten werden, und zwar nicht wir in der CDU, mit der CDU, sondern, ich bin mir ganz sicher, in der gesamten medienpolitischen und auch demokratietheoretischen Diskussion der nächsten Zeit wird das eine Rolle spielen.'" tagesschau.de Kramp-Karrenbauer will Online-"Meinungsmache" regulieren (https://www.tagesschau.de/ inland/youtube-akk-101.html) Das YouTube-Video "Die Zerstörung der CDU" wurde millionenfach geklickt. Nun regt CDU-Chefin Kramp-Karrenbauer eine Debatte an, ob Äußerungen im Internet vor Wahlen reguliert werden sollten. Die Kritik kam prompt.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 140

Presseschau vom 27.5.

Von Erik Meyer 27.5.2019 ist Politikwissenschaftler und arbeitet als freier Journalist und Dozent zur Digitalisierung in Politik, Pop und Erinnerungskultur. Er ist Autor von „Zwischen Partizipation und Plattformisierung: Politische Kommunikation in der digitalen Gesellschaft“ (2019)

Desinformierte Nutzer informieren

Am Wahltag verbreitete sich ein Beitrag über einen angeblichen Wahlbetrug im Netz. Auch der #faktenfuchs des Bayrischen Rundfunks hat sich dem Vorgang angenommen und die Polizei zu einem Zeugen befragt. Ein Sprecher des Polizeipräsidiums Augsburg wird wie folgt zitiert: "'Bei der Vernehmung hat er nicht mehr gesagt, dass zwei Wahlscheine wieder herausgenommen wurden", sagte der Polizeisprecher. Die Beamten hätten ihn danach gefragt. 'Er hat das nicht mehr so bestätigt. '"

BR24 #faktenfuchs: Nein, in Welden gab es keinen Wahlbetrug (https://www.br.de/nachrichten/ bayern/faktenfuchs-nein-in-welden-gab-es-keinen-wahlbetrug,RRakcQC) In Welden im schwäbischen Landkreis Augsburg hätten Wahlhelfer zwei AfD-Stimmen aus einer Wahlurne herausgefischt. Diese Behauptung verbreitet sich am Tag der Europawahl in sozialen Netzwerken, ausgehend von einem Facebook-Post. Die Behauptung ist falsch. In dem Facebook-Post wird jemand folgendermaßen zitiert: "Ich habe gerade eben meine Stimme abgegeben und es gab eine Besonderheit: Vor mir gingen zwei Männer ins Wahllokal, die offen verkündeten, die AfD wählen zu wollen.

Zur Reichweite von Meldungen über Wahlbetrug in den sozialen Medien merkt die Journalistin Karolin Schwarz bei Twitter an:

(https://twitter.com/raeuberhose/status/1132645555132350464)

In diesem Zusammenhang kursieren auch falsche Angaben über Details etwa zum Verschluss der Wahlurnen wie Sophie Rohrmeier ebenfalls für den #faktenfuchs des Bayrischen Rundfunks recherchiert hat: "Verplombung jedenfalls, deren Fehlen von einigen immer wieder bemängelt wird, ist nicht vorgeschrieben, wie der Bundeswahlleiter schon vor der Wahl twitterte. Nicht einmal ein Siegel ist vorgeschrieben. Der Bundeswahlleiter stellte aber klar, dass sichergestellt sein muss, dass die Urne nicht unbeobachtet weggetragen werden kann."

BR24 #faktenfuchs: Nein, Urnen müssen nicht verplombt sein (https://www.br.de/nachrichten/ deutschland-welt/faktenfuchs-nein-urnen-muessen-nicht-verplombt-sein,RRbKEXY) Die Urne nur mit Vorhängeschloss gesichert? Ist damit dem Wahlbetrug Tür und Tor geöffnet? Nein, sagt ein Jurist aus dem Büro des Bundeswahlleiters.

Einige Online-Angebote vertreten die Ansicht, dass das kontroverse Video "Die Zerstörung der CDU " des Youtubers Rezo im Auftrag der Grünen entstanden sei. Christina Helberg vom Recherchezentrum Correctiv hat die Verbreitung im Anschluss rekonstruiert: "Jeder dieser Artikel wurde wiederum von zahlreichen Facebook-Seiten und Twitterkonten übernommen. So verbreitete sich die vermeintliche Meldung tausendfach." Allerdings: "Die Webseiten liefern keine Belege für die Verdächtigung, das Rezo-Video sei eine Kampagne für die Grünen. Die Grünen dementieren, das Video in Auftrag gegeben

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 141 zu haben." correctiv.org Keine Belege, dass die Grünen das Rezo-Video in Auftrag gegeben haben (https://correctiv.org/ faktencheck/europa/2019/05/26/keine-belege-dass-die-gruenen-das-rezo-video-in-auftrag-gegeben- haben) Mehrere Webseiten legen nahe, die Grünen hätten das Rezo-Video in Auftrag gegeben. Dafür gibt es keine Belege. Die Partei dementiert das gegenüber CORRECTIV.

Die BBC beurteilt diverse Inhalte, die während des Wahlkampfs im Netz kursierten, als irreführend; darunter diese Variante: "There have been plenty of examples of old videos being recycled, making it unclear when the footage was first taken. For example, a recording from 2016 that emerged recently of Muslim worshippers outside the Colosseum in Rome. Two Twitter accounts claimed (though their tweets were not widely shared) that Muslims had gathered there on 19 May 2019."

BBC News The spread of misinformation in the European elections (https://www.bbc.com/news/world- europe-48345019?intlink_from_url=https://www.bbc.com/news/topics/cjxv13v27dyt/fake-news&link_location= live-reporting-story) In a heated European election campaign, parties and their supporters used social media to debate some of the biggest issues affecting Europe today. However, as many feared, there were cases of misleading information being widely shared online. It came from a range of sources, including groups criticising political rivals, or accounts publishing large volumes of content on specific subjects such as migration.

Demgegenüber konnte die EU keinen von außen koordinierten Versuch der Einflussnahme auf die Europawahl mittels digitaler Desinformation feststellen, berichtet Thomas Gutschker in der FAZ: "'Eine massive, besonders hervorstechende Kampagne wie bei der amerikanischen Präsidentenwahl 2016 haben wir jedoch nicht beobachten können', sagte Lutz Güllner, der den Bereich strategische Kommunikation im Europäischen Auswärtigen Dienst leitet, der Frankfurter Allgemeinen Sonntagszeitung. Zu Güllners Aufgabenbereich gehört eine Sondereinheit, die russische Medien auf Desinformation hin beobachtet (East StratCom Task Force)." faz.net Desinformationskampagnen: EU hält sich für besser geschützt (https://www.faz.net/aktuell/ politik/europawahl/eu-sieht-sich-besser-gegen-digitale-angriffe-geschuetzt-16206031.html) Die Europäische Union zieht eine vorsichtig positive Bilanz ihrer Maßnahmen zum Schutz der Europawahl gegen digitale Angriffe von außen. Zwar hätten „Akteure aus Russland" in den vergangenen Monaten wie üblich über das Internet Botschaften verbreitet, um die Europäische Union zu unterminieren und die europäische Demokratie zu diskreditieren.

Im Zusammenhang mit einem manipulierten Video, das die Sprecherin des US-Repräsentantenhauses zeigt, berichtet Makena Kelly, dass Nutzer, die das Video bei Facebook teilen möchten, nun alarmiert werden: "'Once the video was fact checked as false, we dramatically reduced its distribution,' a Facebook spokesperson told The Verge. 'Speed is critical to this system, and we continue to improve our response. People who see the video in feed, try to share it from feed, or already shared it are alerted that it’s false.'”

The Verge Facebook begins telling users who try to share distorted Nancy Pelosi video that it's fake (https://www.theverge.com/2019/5/25/18639754/facebook-nancy-pelosi-video-fake-clip-distorted- deepfake) Earlier this week, an altered video of House Speaker Nancy Pelosi caught fire on Facebook, and despite being faked, the platform has so far declined to remove it. However, it has now chosen to notify

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 142 users who attempt to share the clip that it is faked.

Weitergehend ist die Forderung zur Information von Nutzern, die mit Desinformation konfrontiert werden, wie sie die Organisation Avaaz auch am Wahlabend wiederholt:

(https://twitter.com/Avaaz/status/1132688455962697730)

Einen Vorgeschmack auf die EU DisinfoLab Annual Conference, die an diesem Dienstag beginnt, liefert im Kontext der Diskussion um das Video eine Expertin aus den USA, die die Tagung in Brüssel mit einem Vortrag eröffnen wird:

(https://twitter.com/noUpside/status/1132745164731011072)

Erich Moechel ordnet beim österreichischen Radiosender FM4 die Angaben Facebooks zur Löschung von Fake-Profilen an Hand einer Übersicht ein: "Die Generalaussage hinter der obigen Grafik ist, dass Facebook nun endlich über funktionierende Algorithmen verfügt, um automatisierte Anmeldungsvorgänge aller Art als solche identifizieren zu können. Offenbar gelingt das ohne größere Kollateralschäden bei legitimen Konten anzurichten, die ein, zwei Charakteristika mit Falschkonten gemeinsam haben. Was Facebook allerdings nicht verrät, ist die Aufteilung der illegitimen Konten auf die verschiedenen Services des Konzerns, nämlich wie viele solcher Konten auf Facebook selbst entfallen und wieviele auf WhatsApp und Instagram zurückgehen." fm4.ORF.at EU-Wahlkampf zeigte Trendumkehr bei Desinformationsmethoden (https://fm4.orf.at/ stories/2983642/) radio fm4 Automatisierte „Bot-Accounts" werden von Facebook & Co mittlerweile routinemäßig erkannt und neutralisiert. Die Wellen von Falschnachrichten kamen diesmal von verdeckten Netzwerken, die in Handarbeit errichtet wurden. Von Erich Moechel Der EU-Wahlkampf 2019 im Internet ist geschlagen, die von vielen erwartete Lawine an Desinformationskampagnen ist ausgeblieben.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 143

Presseschau vom 24.5.

Von Erik Meyer 24.5.2019 ist Politikwissenschaftler und arbeitet als freier Journalist und Dozent zur Digitalisierung in Politik, Pop und Erinnerungskultur. Er ist Autor von „Zwischen Partizipation und Plattformisierung: Politische Kommunikation in der digitalen Gesellschaft“ (2019)

Die Zerstörung der Fakten?

Auch in der Diskussion um das viral verbreitete Video, in dem Youtuber Rezo Kritik an der Bundesregierung übt, geht es um Fakten und deren Prüfung. In der taz kommentiert Lilly Schlagnitweit die Reaktion von Vertretern der vor allem angegriffenen CDU, die zunächst einen Antwort-Clip angekündigt hatte: "Die Fakten, auf die Rezo sich bezieht, wollten sie nicht anzweifeln, sie würden aber nur einen Teil der Wahrheit abbilden. (...) Den an gleicher Stelle veröffentlichten 'Faktencheck' werden sich wohl nur wenige der Menschen durchlesen, die sich ein Video vielleicht angesehen hätten. Bemerkenswert ist an Rezos Video vor allem, dass er seine Reichweite nutzt, um viele junge Menschen über Politik zu informieren, dass er dafür Komplexes manchmal vereinfacht, aber auf zwölf Seiten seine Quellen darlegt."

Taz Die fünf Millionen Plagen der AKK (https://www.taz.de/!5594870/) Erst wollten die Christdemokraten mit einem Video auf den YouTube-Hit von Rezo reagieren, dann rangen sie sich nur zu einer Erklärung durch Von Lilly Schlagnitweit Twitter überschlug sich in Vorfreude: Die CDU, so war es auch der taz am Mittwoch noch bestätigt worden, habe ein Video produziert, das noch am Nachmittag veröffentlicht werde.

Zum Antwort-Dokument der CDU unter dem Motto "Wie wir die Sache sehen" schreibt Zeit Online: "In vier Politikbereichen nahmen die Analysten der Partei die Äußerungen Rezos auseinander: Einkommen und soziale Gerechtigkeit, Bildung, Krieg und Klimaschutz. Dabei führten sie Faktoren und Umstände ins Feld, die die Schuldzuweiseungen des YouTubers entkräften sollen. So habe sich die Schere zwischen Arm und Reich in Deutschland nur deswegen nicht weiter geschlossen, weil viele Zuwanderer gering qualifiziert seien und daher wenig verdienen."

Zeit Online YouTube: CDU lädt Rezo zum Austausch ein (https://www.zeit.de/politik/deutschland/2019-05/ youtube-rezo-union-cdu-csu-gespraechsangebot) CDU-Generalsekretär hat den YouTuber Rezo nach dessen Kritik an den Christdemokraten zu einem Gespräch eingeladen. "Lass uns über Deine Kritik an der CDU sprechen, aber bitte höre auch uns zu, wie wir die Dinge sehen", schrieb Ziemiak auf Twitter. Rezo habe Kritikpunkte benannt, die berechtigt seien.

Weniger differenziert spitzt hingegen Jasper von Altenbockum in der FAZ seine Kritik an den Aussagen und ihrer Rezeption zu. Mit diesem Auszug aus seinem Kommentar bewirbt die Zeitung den Beitrag bei Facebook:

(https://www.facebook.com/faz/photos/a.415527155975/10156287273195976)

In einem Interview mit Spiegel Online skizziert die US-Historikerin Anne Applebaum vier Aspekte, die für Desinformationskampagnen charakteristisch seien:

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 144

• "Fake-Profile, hinter denen keine echten Menschen stehen.

• Verstärkungskampagnen, die bestimmte Posts und Geschichten beliebter erscheinen lassen, als sie in Wirklichkeit sind.

• Fake-Stories, also Geschichten, die schlicht unwahr sind.

• Am wichtigsten aber sind die falschen Narrative: Netzwerke aus Menschen und Bots gehen dabei organisiert vor, um einen stetigen Strom von Informationen zu produzieren, durch den ein Thema gesetzt wird."

Spiegel Online Historikerin über Gefahren aus dem Netz: "Eine echte Bedrohung für die Demokratie" (https:// www.spiegel.de/politik/ausland/europawahl-2019-anne-applebaum-ueber-fake-news-und- desinformationskampagnen-a-1267521.html) Das Fazit von Sonderermittler Robert Mueller fiel eindeutig aus: Im Zuge des US-Wahlkampfs 2016 war es zu einer massiven Propagandaoffensive in den sozialen Medien gekommen. Verantwortlich dafür, so der Vorwurf der US-Justiz: eine Trollfabrik in St. Petersburg. Vor der Europawahl warnt die EU-Kommission vor ähnlichen Kampagnen und möglicher Wahlmanipulation durch Akteure aus dem Ausland.

Im Netz kursiert eine Grafik, die als „Entscheidungshilfe für unentschlossene Wähler“ verbreitet wird undDie angeblich Zerstörung die der Fakten?

Auch in der Diskussion um das viral verbreitete Video, in dem Youtuber Rezo Kritik an der Bundesregierung übt, geht es um Fakten und deren Prüfung. In der taz kommentiert Lilly Schlagnitweit die Reaktion von Vertretern der vor allem angegriffenen CDU, die zunächst einen Antwort-Clip angekündigt hatte: "Die Fakten, auf die Rezo sich bezieht, wollten sie nicht anzweifeln, sie würden aber nur einen Teil der Wahrheit abbilden. (...) Den an gleicher Stelle veröffentlichten 'Faktencheck' werden sich wohl nur wenige der Menschen durchlesen, die sich ein Video vielleicht angesehen hätten. Bemerkenswert ist an Rezos Video vor allem, dass er seine Reichweite nutzt, um viele junge Menschen über Politik zu informieren, dass er dafür Komplexes manchmal vereinfacht, aber auf zwölf Seiten seine Quellen darlegt."

Taz Die fünf Millionen Plagen der AKK (https://www.taz.de/!5594870/) Erst wollten die Christdemokraten mit einem Video auf den YouTube-Hit von Rezo reagieren, dann rangen sie sich nur zu einer Erklärung durch Von Lilly Schlagnitweit Twitter überschlug sich in Vorfreude: Die CDU, so war es auch der taz am Mittwoch noch bestätigt worden, habe ein Video produziert, das noch am Nachmittag veröffentlicht werde.

Zum Antwort-Dokument der CDU unter dem Motto "Wie wir die Sache sehen" schreibt Zeit Online: "In vier Politikbereichen nahmen die Analysten der Partei die Äußerungen Rezos auseinander: Einkommen und soziale Gerechtigkeit, Bildung, Krieg und Klimaschutz. Dabei führten sie Faktoren und Umstände ins Feld, die die Schuldzuweiseungen des YouTubers entkräften sollen. So habe sich die Schere zwischen Arm und Reich in Deutschland nur deswegen nicht weiter geschlossen, weil viele

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 145

Zuwanderer gering qualifiziert seien und daher wenig verdienen."

Zeit Online YouTube: CDU lädt Rezo zum Austausch ein (https://www.zeit.de/politik/deutschland/2019-05/ youtube-rezo-union-cdu-csu-gespraechsangebot) CDU-Generalsekretär Paul Ziemiak hat den YouTuber Rezo nach dessen Kritik an den Christdemokraten zu einem Gespräch eingeladen. "Lass uns über Deine Kritik an der CDU sprechen, aber bitte höre auch uns zu, wie wir die Dinge sehen", schrieb Ziemiak auf Twitter. Rezo habe Kritikpunkte benannt, die berechtigt seien.

Weniger differenziert spitzt hingegen Jasper von Altenbockum in der FAZ seine Kritik an den Aussagen und ihrer Rezeption zu. Mit diesem Auszug aus seinem Kommentar bewirbt die Zeitung den Beitrag bei Facebook:

(https://www.facebook.com/faz/photos/a.415527155975/10156287273195976)

In einem Interview mit Spiegel Online skizziert die US-Historikerin Anne Applebaum vier Aspekte, die für Desinformationskampagnen charakteristisch seien:

• "Fake-Profile, hinter denen keine echten Menschen stehen.

• Verstärkungskampagnen, die bestimmte Posts und Geschichten beliebter erscheinen lassen, als sie in Wirklichkeit sind.

• Fake-Stories, also Geschichten, die schlicht unwahr sind.

• Am wichtigsten aber sind die falschen Narrative: Netzwerke aus Menschen und Bots gehen dabei organisiert vor, um einen stetigen Strom von Informationen zu produzieren, durch den ein Thema gesetzt wird."

Spiegel Online Historikerin über Gefahren aus dem Netz: "Eine echte Bedrohung für die Demokratie" (https:// www.spiegel.de/politik/ausland/europawahl-2019-anne-applebaum-ueber-fake-news-und- desinformationskampagnen-a-1267521.html) Das Fazit von Sonderermittler Robert Mueller fiel eindeutig aus: Im Zuge des US-Wahlkampfs 2016 war es zu einer massiven Propagandaoffensive in den sozialen Medien gekommen. Verantwortlich dafür, so der Vorwurf der US-Justiz: eine Trollfabrik in St. Petersburg. Vor der Europawahl warnt die EU-Kommission vor ähnlichen Kampagnen und möglicher Wahlmanipulation durch Akteure aus dem Ausland.

Im Netz kursiert eine Grafik, die als „Entscheidungshilfe für unentschlossene Wähler“ verbreitet wird und angeblich die Programme von sechs Parteien stichpunktartig vergleicht. Das Recherchezentrum Correctiv hat die Angaben überprüft und für jede Partei zu jedem der aufgeführten zehn Punkte das EU-Wahlprogramm konsultiert: "Unsere Bewertung: Die Tabelle enthält teilweise falsche Angaben." correctiv.org Wie eine angebliche Entscheidungshilfe Wähler in die Irre führt (https://correctiv.org/ faktencheck/europa/2019/05/23/wie-eine-angebliche-entscheidungshilfe-waehler-in-die-irre-fuehrt)

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 146

Von Steffen Kutzner, Mitglied der Checkjetzt-Redaktion Eine Tabelle mit der Überschrift „Entscheidungshilfe für unentschlossene Wähler" suggeriert einen neutralen Überblick über die Parteiprogramme der sechs Parteien CDU, SPD, AfD, Linke, FDP und Grüne zu geben. Sie wird aktuell in leicht unterschiedlichen Versionen von Nutzern in Sozialen Netzwerken geteilt. Eine Quellenangabe fehlt.

Zu den "Wahlarenen" des Bayrischen Rundfunks prüft der #Faktenfuchs des Senders Behauptungen der Gäste. So untersuchen Caroline Eichhorn und Jenny Stern Angaben einer CSU-Politikerin zur Klimapolitik: "Fazit: Die Behauptung, dass Europa beim Thema Klimaschutz die Nummer Eins ist, stimmt nicht. Europa befindet sich laut Datenlage und Expertenmeinungen weltweit eher im oberen Mittelfeld."

BR24 #Faktenfuchs zur BR Wahlarena: Die CSU-Kandidatin im Faktencheck (https://www.br.de/ nachrichten/bayern/faktenfuchs-zur-br-wahlarena-die-csu-kandidatin-im-faktencheck,RRH8vKK)

In der BR Wahlarena in Bamberg ging es um das Thema Klimaschutz und CO2-Einsparungen. Angelika Niebler von der CSU sagte, dass Europa bereits Nummer Eins im Klimaschutz wäre. Ihr Wortlaut: " Ich möchte schon einmal betonen, dass wir in Europa Nummer Eins sind in Sachen Klimaschutz.

Eine Schulungs-Initiative für Journalisten hat englischsprachige Videos und Materialen aus einem Online-Kurs mit vier Modulen zu diversen Aspekten der Faktenprüfung verfügbar gemacht:

(https://twitter.com/utknightcenter/status/1131817107249926147)

Gestern hat Facebook den Report zur Durchsetzung seiner Gemeinschaftsstandards veröffentlicht. In einem Beitrag dazu nennt Guy Rosen, einer der Vizepräsidenten des Unternehmens, zum Aspekt falscher Profile erhebliche Zahlen: "For fake accounts, the amount of accounts we took action on increased due to automated attacks by bad actors who attempt to create large volumes of accounts at one time. We disabled 1.2 billion accounts in Q4 2018 and 2.19 billion in Q1 2019."

Facebook Newsroom An Update on How We Are Doing At Enforcing Our Community Standards (https://newsroom. fb.com/news/2019/05/enforcing-our-community-standards-3/) Today, we're publishing our third Community Standards Enforcement Report, covering Q4 2018 and Q1 2019. This report adds a few additional data points: What's New in the Third Edition Data on appeals and content restored: For the first time, we're including how much content people appealed and how much content was restored after we initially took action.

In einem Hintergrundbeitrag zum Umgang Facebooks mit Falschmeldungen in der ZDF-Sendung "heuteplus" fragt die Redaktion einen Medienrechtler sowie einen Vertreter der Plattform, ob das Engagement des Unternehmens ausreicht:

(https://twitter.com/heuteplus/status/1131186228735488001)

Derweil sorgt in den USA ein Video, dass die Sprecherin des Repräsentantenhauses zeigt, für Aufregung. Es wurde so bearbeitet, das der Einruck entsteht, sie sei betrunken. Donie O'Sullivan berichtet bei CNN: "The crudely edited video comes amid warnings from the US intelligence community that more sophisticated video manipulation may be part of future disinformation campaigns targeting the American electorate. The video, which shows Pelosi's onstage comments at the Center for American Progress on Wednesday, has been slowed down, which makes her words seem slurred."

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 147

CNN Doctored videos shared to make Pelosi sound drunk viewed millions of times on social media (https://edition.cnn.com/2019/05/23/politics/doctored-video-pelosi/index.html) A manipulated video being shared by some social media users to spread a false claim that House Speaker Nancy Pelosi slurred her words after meeting with President Donald Trump on Wednesday has been removed by YouTube, the company told CNN on Thursday. von sechs Parteien stichpunktartig vergleicht. Das Recherchezentrum Correctiv hat die Angaben überprüft und für jede Partei zu jedem der aufgeführten zehn Punkte das EU-Wahlprogramm konsultiert: "Unsere Bewertung: Die Tabelle enthält teilweise falsche Angaben." correctiv.org Wie eine angebliche Entscheidungshilfe Wähler in die Irre führt (https://correctiv.org/ faktencheck/europa/2019/05/23/wie-eine-angebliche-entscheidungshilfe-waehler-in-die-irre-fuehrt)

Von Steffen Kutzner, Mitglied der Checkjetzt-Redaktion Eine Tabelle mit der Überschrift „Entscheidungshilfe für unentschlossene Wähler" suggeriert einen neutralen Überblick über die Parteiprogramme der sechs Parteien CDU, SPD, AfD, Linke, FDP und Grüne zu geben. Sie wird aktuell in leicht unterschiedlichen Versionen von Nutzern in Sozialen Netzwerken geteilt. Eine Quellenangabe fehlt.

Zu den "Wahlarenen" des Bayrischen Rundfunks prüft der #Faktenfuchs des Senders Behauptungen der Gäste. So untersuchen Caroline Eichhorn und Jenny Stern Angaben einer CSU-Politikerin zur Klimapolitik: "Fazit: Die Behauptung, dass Europa beim Thema Klimaschutz die Nummer Eins ist, stimmt nicht. Europa befindet sich laut Datenlage und Expertenmeinungen weltweit eher im oberen Mittelfeld."

BR24 #Faktenfuchs zur BR Wahlarena: Die CSU-Kandidatin im Faktencheck (https://www.br.de/ nachrichten/bayern/faktenfuchs-zur-br-wahlarena-die-csu-kandidatin-im-faktencheck,RRH8vKK)

In der BR Wahlarena in Bamberg ging es um das Thema Klimaschutz und CO2-Einsparungen. Angelika Niebler von der CSU sagte, dass Europa bereits Nummer Eins im Klimaschutz wäre. Ihr Wortlaut: " Ich möchte schon einmal betonen, dass wir in Europa Nummer Eins sind in Sachen Klimaschutz.

Eine Schulungs-Initiative für Journalisten hat englischsprachige Videos und Materialen aus einem Online-Kurs mit vier Modulen zu diversen Aspekten der Faktenprüfung verfügbar gemacht:

(https://twitter.com/utknightcenter/status/1131817107249926147)

Gestern hat Facebook den Report zur Durchsetzung seiner Gemeinschaftsstandards veröffentlicht. In einem Beitrag dazu nennt Guy Rosen, einer der Vizepräsidenten des Unternehmens, zum Aspekt falscher Profile erhebliche Zahlen: "For fake accounts, the amount of accounts we took action on increased due to automated attacks by bad actors who attempt to create large volumes of accounts at one time. We disabled 1.2 billion accounts in Q4 2018 and 2.19 billion in Q1 2019."

Facebook Newsroom An Update on How We Are Doing At Enforcing Our Community Standards (https://newsroom. fb.com/news/2019/05/enforcing-our-community-standards-3/) Today, we're publishing our third Community Standards Enforcement Report, covering Q4 2018 and Q1 2019. This report adds a few additional data points: What's New in the Third Edition Data on appeals and content restored: For the first time, we're including how much content people appealed and how much content was restored after we initially took action.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 148

In einem Hintergrundbeitrag zum Umgang Facebooks mit Falschmeldungen in der ZDF-Sendung "heuteplus" fragt die Redaktion einen Medienrechtler sowie einen Vertreter der Plattform, ob das Engagement des Unternehmens ausreicht:

(https://twitter.com/heuteplus/status/1131186228735488001)

Derweil sorgt in den USA ein Video, das die Sprecherin des Repräsentantenhauses zeigt, für Aufregung. Es wurde so bearbeitet, dass der Einruck entsteht, sie sei betrunken. Donie O'Sullivan berichtet bei CNN: "The crudely edited video comes amid warnings from the US intelligence community that more sophisticated video manipulation may be part of future disinformation campaigns targeting the American electorate. The video, which shows Pelosi's onstage comments at the Center for American Progress on Wednesday, has been slowed down, which makes her words seem slurred."

CNN Doctored videos shared to make Pelosi sound drunk viewed millions of times on social media (https://edition.cnn.com/2019/05/23/politics/doctored-video-pelosi/index.html) A manipulated video being shared by some social media users to spread a false claim that House Speaker Nancy Pelosi slurred her words after meeting with President Donald Trump on Wednesday has been removed by YouTube, the company told CNN on Thursday.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 149

Presseschau vom 23.5.

Von Erik Meyer 23.5.2019 ist Politikwissenschaftler und arbeitet als freier Journalist und Dozent zur Digitalisierung in Politik, Pop und Erinnerungskultur. Er ist Autor von „Zwischen Partizipation und Plattformisierung: Politische Kommunikation in der digitalen Gesellschaft“ (2019)

Falsche Profilbildung

Mehrere Beiträge beschäftigen sich mit irreführenden Aktivitäten zur Unterstützung von Inhalten der AfD bei Twitter: "Erster Schritt dieser neuerlichen Recherche zu den Twitter-Aktivitäten der AfD waren auffällige Accounts, welche die Partei unterstützten und offenbar für die Europawahl 2019 angelegt waren. Diese Accounts mit Namen wie @Franzoesinnen, @Griechinnen, @Polinnen, @Zypriotinnen oder @AfD_Bulgaria, @AfD_Polska, @AfD_Ungarn wurden in einem Blogbeitrag der Journalistin Andrea Becker beschrieben und waren Ausgangspunkt der Recherche", schreibt Markus Reuter beim Blog "Netzpolitik": netzpolitik.org Fälschen, züchten und verstärken: Fragwürdige Twitter-Tricks bei der AfD (https://netzpolitik. org/2019/faelschen-zuechten-und-verstaerken-fragwuerdige-twitter-tricks-bei-der-afd/) Auf Twitter haben die AfD und ihr Umfeld fragwürdige Methoden und Tricks genutzt, um die Partei größer aussehen zu lassen. Eine gemeinsame Recherche von netzpolitik.org und t-online.de ist auf zahlreiche Fälle gestoßen, in denen mit eigens dafür erstellten Accounts Stimmung für die Partei und über koordinierte Retweets Abgeordneten künstlich Relevanz zugesprochen wird.

Was an den Praktiken aus der Perspektive der Meinungsbildung problematisch ist, formuliert der Autor in diesem Tweet:

(https://twitter.com/markusreuter_/status/1131476095751086081)

Im betreffenden Bericht von Lars Wienand bei t-online.de wird auch der mögliche Effekt der Manipulationen reflektiert: "Der Politikberater, Blogger und Autor Martin Fuchs hat Einblick in die Rechercheergebnisse bekommen und wundert sich: 'Ich frage mich auch, warum das gemacht wird. Die Effekte für die Wahlmobilisierung erscheinen mir äußerst gering, die Gefahr der Aufdeckung und Skandalisierung aber extrem hoch.'" t-online.de Wie die AfD auf Twitter täuscht und trickst (https://www.t-online.de/nachrichten/deutschland/ id_85764202/wie-die-afd-auf-twitter-taeuscht-und-trickst-exklusive-recherche.html) Exklusive Recherche Wie die AfD auf Twitter täuscht und trickst Von Lars Wienand Wundersame Wandlungen: Wie die AfD ihre Twitter-Accounts instrumentalisiert AfD-Accounts auf Twitter: Die Profile von Kampagnen und Politikern der Partei wechseln munter ihren Namen und ihren Zweck und lassen den Nutzer gezielt im Dunkeln.

Eine Variante der thematisierten Vorgehensweise beschreibt Patrick Gensing beim ARD-faktenfinder unter anderem an diesem Beispiel "Auch das Konto 'Emma Richter' verkleidet sich mit einem gestohlenen Profilbild und twittert politisch im Sinne der AfD. Hier werden - wie auf ähnlichen Accounts - recht aufwändig Inhalte erstellt, die von mutmaßlichen Fake-Profilen, aber auch realen Personen weiterverbreitet werden."

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 150 tagesschau.de Wahlkampf auf Twitter: Fake-Profile für die AfD (http://www.tagesschau.de/faktenfinder/twitter- afd-101.html) Im Europawahlkampf sind auf Twitter anonyme Konten aktiv, die Zehntausende Tweets für die AfD absetzen. Viele geben sich als Frauen aus, die Profilbilder wurden im Netz geklaut. Von Patrick Gensing, ARD-faktenfinder Jung, weiblich, hyperaktiv - so treten auf Twitter diverse Konten auf, die Tausende von Tweets im Sinne der AfD veröffentlichen.

Die britische Monitoring-Initiative "Who targets me" hat ein Ranking der EU-Mitgliedsstaaten im Hinblick auf die Ausgaben für politische Werbung bei Facebook im Vorfeld der Europawahl vorgelegt. Zur Relevanz im Kontext der Diskussion um digitale Desinformation wird angemerkt: "'Highly targeted advertising allows political groups to spread different messages to different groups of voters - entirely individual to the voter’s feed and taking place beyond public scrutiny,' says Louis Knight-Webb of Who Targets Me. You can be advertised to based on your age, gender, likes and dislikes, behaviours and attitudes, appealing to your interests or playing off your prejudices. All the while your neighbour can receive an entirely different campaign.'”

(https://medium.com/@WhoTargetsMe/political-groups-spend-17-million-ahead-of-the-eu- elections-2019-777381d3b896)

Johannes Kuhn hat sich für die Süddeutsche Zeitung mit aktuellen Studien zu problematischen Inhalten und Profilen auf den Plattformen befasst. In seinem Beitrag wird auf ein relevantes Defizit der Datenanalysen hingewiesen: "'Nur explizit öffentliche Postings können über Programmierschnittstellen erfasst werden. Geschlossene und private, egal wie viele Tausend Menschen sie nutzen, können nicht automatisiert erfasst werden', so der Social-Media-Analyst Luca Hammer. 'Ein Gesamtbild gibt es also nicht, immer nur Annäherungen.'" sueddeutsche.de Müllnachrichten für die Eurosphäre (https://www.sueddeutsche.de/digital/europawahl- desinformation-social-media-avaaz-oxford-1.4459048) Desinformation vor den Europawahlen? Auf den ersten Blick kommen zwei Studien zu unterschiedlichen Ergebnissen. Die Analyse der Meinungsbildung auf Social Media wird schwieriger - aus Datenschutzgründen, aber auch durch die Standards der Plattformen. Das Transparenzregister für politische Werbung weist deutliche Lücken auf.

Auch Natasha Lomas hat sich für das Online-Magazin Techcrunch mit dem Avaaz-Report über europäische Fake-Profilen und Desinformation bei Facebook auseinandergesetzt und ist entsetzt über die Plattform: "The bottom line is that even if Facebook dedicates far more resource (human and AI) to rooting out ‘election interference’ the wider problem is that a commercial entity which benefits from engagement on an ad-funded platform is also the referee setting the rules. Indeed, the whole loud Facebook publicity effort around 'election security' looks like a cynical attempt to distract the rest of us from how broken its rules are. Or, in other words, a platform that accelerates propaganda is also seeking to manipulate and skew our views."

TechCrunch Facebook found hosting masses of far right EU disinformation networks (https://techcrunch. com/2019/05/22/facebook-found-hosting-masses-of-far-right-eu-disinformation-networks/) A multi-month hunt for political disinformation spreading on Facebook in Europe suggests there are concerted efforts to use the platform to spread bogus far right propaganda to millions of voters ahead of a key EU vote which kicks off tomorrow. Following the independent investigation, Facebook has ...

Bei Spiegel Online berichten Markus Becker und Patrick Beuth ergänzend über die Reaktion der Plattform, wo eine Reihe von Konten im Anschluss gelöscht wurden: "Doch einige andere Beispiele, die im Avaaz-Bericht beschrieben sind, stellen nicht zwingend einen Verstoß gegen Facebooks

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 151

Richtlinien dar. Das Unternehmen hat nach Angaben der Sprecherin auch keinen Hinweis auf 'coordinated inauthentic behavior' gefunden, also eine gezielte Vernetzung mehrerer Nutzer unter falscher Identität. Das war bisher jener Ansatz, über den das Unternehmen Desinformations-Netzwerke lahmlegte, unabhängig von den verbreiteten Inhalten." spiegel.de Bürgerbewegung Avaaz warnt Facebook vor rechter Propaganda-Flut (https://www.spiegel.de/ netzwelt/netzpolitik/facebook-buergerbewegung-avaaz-warnt-vor-rechter-propaganda-flut-a-1268728. html) "Europa ertrinkt vor den Europawahlen in Falschnachrichten" - das ist das Urteil von Avaaz nach einer groß angelegten Untersuchung auf Facebook. Die Online-Plattform hat nach eigenen Angaben mehr als 500 verdächtige Seiten und Gruppen an Facebook gemeldet, die Desinformationen und Hass von Rechtspopulisten oder deren Unterstützern verbreiten.

Aus der Perspektive des Online-Angebots euvsdisinfo.eu, das sich im Rahmen der strategischen Kommunikation der EU ausschließlich mit Formaten der Desinformation befasst, die Russland zugeordnet werden, wird die Wahrnehmung der aktuellen Situation problematisiert: "expectations of a massive coordinated influence campaign, targeted hack-and-leak operation, or other dramatic cyberattack have seemingly fallen short. The observed level of disinformation and manipulated online activity has been pretty much, well… normal."

EU vs DISINFORMATION EU Elections Update: Reaping What Was Sown - EU vs DISINFORMATION (https://euvsdisinfo. eu/eu-elections-update-reaping-what-was-sown/) This week, European citizens head to the polls to vote in the European Union's ninth parliamentary elections. 751 MEPs will be elected to represent over 512 million people from the EU's 28 member states, thus assuming major influence over European policy-making for the next five years.

Gert Scobel diskutiert in seiner 3sat-Sendung um 21.00 Uhr über das Thema "Medien, Macht und Manipulation". Gäste sind die Journalistin Ingrid Brodnig, der Soziologe Dirk Baeker und der Kommunikationswissenschaftler Martin Emmer: "Heute machen sich Populisten in Europa und auf der ganzen Welt die sozialen Medien zunutze und erlangen dank ihrer Hilfe in atemberaubendem Tempo politische Macht. Alte Mächte in Wirtschaft und Politik weichen neuen Mächten, alte mediale Öffentlichkeit hat längst einer Vielzahl von digitalen Öffentlichkeiten Platz gemacht. Welche Chancen bieten die 'neuen Medien' – immer noch? Und mit welchen neuen Gefahren der Manipulation müssen wir in Zukunft rechnen?" Um 20.15 Uhr wird dort bereits die Dokumentation "Das manipulierte Bild " gesendet.

3sat Medien, Macht und Manipulation (https://www.3sat.de/wissen/scobel/190523-medien-macht- manipulation-100.html) Google, Instagram, Amazon oder Airbnb bestimmen Leben und Alltag. Gert Scobel diskutiert mit Gästen auf den Medientagen Mitteldeutschland in Leipzig über "Medien, Macht und Manipulation". Deutschland 2019 Sendetermin 23.05.2019 21:00 - 22:00 Uhr Sendetermin 23.05.2019 21:00 - 22:00 Uhr Die digitalen Medien: anfangs die Verheißung einer transparenten Wissensgesellschaft, heute Bedrohung für die Demokratie?

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 152

Presseschau vom 22.5.

Von Erik Meyer 22.5.2019 ist Politikwissenschaftler und arbeitet als freier Journalist und Dozent zur Digitalisierung in Politik, Pop und Erinnerungskultur. Er ist Autor von „Zwischen Partizipation und Plattformisierung: Politische Kommunikation in der digitalen Gesellschaft“ (2019)

Neue Nachrichtenwächter

Marcel Kolvenbach berichtet bei Tagesschau.de über einen Report, den die Organisation Avaaz vorgelegt hat: Durch Fake-Profile wurde demnach auch in Deutschland Desinformation verbreitet. Das Vorgehen Facebooks reicht den Aktivisten nicht: "Avaaz kritisiert das reine Löschen als unzureichend und forderte von den Anbietern, falsche Nachrichten richtigzustellen. Zwar habe Facebook 'schnell auf unsere Untersuchung reagiert und diese Netzwerke geschlossen', das sei aber nicht ausreichend. Facebook solle vielmehr 'sicherstellen, dass jeder, der diese Desinformation gesehen hat, unverzüglich eine Richtigstellung erhält, und verhindern, dass seine Algorithmen dieses Gift aktiv verbreiten', so die Organisation." tagesschau.de Desinformation: Facebook sperrt Hunderte Fake-Profile (https://www.tagesschau.de/ investigativ/swr/europawahl-soziale-medien-105.html) Im Vorfeld der Europawahl hat die NGO Avaaz Fake-Profile auf Facebook identifiziert, die millionenfach aufgerufen wurden. Facebook reagierte mit Abschaltung - betroffen ist auch die AfD. Von Marcel Kolvenbach, SWR Wenige Tage vor der Europawahl veröffentlicht die Nichtregierungsorganisation Avaaz eine Studie, die belegt, dass über zahlreiche Fake-Profile bei Facebook gezielt Desinformationen verbreitet worden sind.

In einem Interview mit der Welt äußert sich der EU-Sicherheitskommissar, Julian King, unter anderem zu den Bemühungen der Plattformen, eine manipulative Einflussnahme auf die Meinungsbildung zu verhindern: "Aufgrund der Debatten in Europa und in den USA haben sie verstanden, dass es für ihre Reputation sehr schlecht wäre, wenn sie nicht aktiv werden und das Risiko politischer Desinformation rund um Wahlen ernst nehmen. Wir haben das denen nicht aufgezwungen, es war ihre Erkenntnis. Aber wir haben angekündigt, dass wir sie dafür in die Verantwortung nehmen."

Die Welt EU warnt vor Einmischung bei Wahl: „Russland ist bereits auffällig geworden" (https://www. welt.de/politik/article193809957/EU-warnt-vor-Einmischung-bei-Wahl-Russland-ist-bereits-auffaellig- geworden.html#) Politik Russlands Einfluss auf EU-Wahl Der EU-Sicherheitskommissar, Julian King, sieht kurz vor der Europawahl die Gefahr einer Einflussnahme aus dem Ausland. „Russland ist da bereits auffällig geworden", sagte King im Interview mit WELT. Cyberattacken staatlicher Akteure möchte King künftig härter bestrafen. Freitagmorgen kommt Julian King durch den Türrahmen seines Berliner Büros geschossen.

In der Diskussion um die Bekämpfung von Desinformation wird von den Plattformen häufig erwartet, dass sie die Verbreitung irreführender oder anderweitig problematischer Inhalte unterbinden. Doch es gibt auch eine "dunkle Seite" der "content moderation". Diesem Phänomen widmet sich nun ein Online- Angebot der Electronic Frontier Foundation aus den USA, das die Folgen etwa von fragwürdigen Kontensperrungen beispielhaft dokumentiert.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 153

Electronic Frontier Foundation TOSsed Out (https://www.eff.org/tossedout) We've been tracking the impact of social media content takedowns and account deactivations for many years. TOSsed Out highlights the various ways in which Terms of Service (TOS) and other speech moderation rules are unevenly enforced, with little to no transparency, against a wide spectrum of...

Ein Browser-Plugin um Nutzer mit Hintergrundinformationen zu den Anbietern von Inhalten zu versorgen, bietet das US-Startup NewsGuard nun auch in Deutschland an: "90 Prozent des Online- Nachrichten- und Informationsvolumens möchten die Verantwortlichen in den jeweiligen Ländern, in denen sie tätig sind, in Form von Mediensteckbriefen überprüfen. In Deutschland sind es zum Start etwa 70 Prozent, Ende Juni will das Team dann die anvisierte Zielmarke erreicht haben. Hierzulande handelt es sich dabei um etwa 150 Nachrichtenseiten." Thomas Borgböhmer erklärt bei Meedia.de wie die Bewertung der Glaubwürdigkeit vorgenommen wird:

Meedia NewsGuard startet in Deutschland: Das müssen Publisher über das Anti-Fake-News-Tool wissen (https://meedia.de/2019/05/21/newsguard-startet-in-deutschland-das-muessen-publisher- zum-anti-fake-news-tool-wissen/) Der Zeitpunkt so kurz vor den Europawahlen ist günstig gewählt, wird doch fast täglich vor Desinformation gewarnt: Seit Dienstag steht das Anti-Fake-News-Tool NewsGuard auch deutschen Nutzern zur Verfügung. Wie bewertet der Service Nachrichtenseiten? Und wann fällt eine Webseite durch? Die wichtigsten Antworten im Überblick.

Eine Recherche zu Facebooks Einfluss auf eine Expertengruppe der EU, die gestern publiziert wurde, ruft Reaktionen hervor. Hier äußert sich der bei den Beratungen für das International Factchecking Networking anwesende Alexios Mantzarlis:

(https://twitter.com/Mantzarlis/status/1130816950341386240)

Auch Lisa Hegemann hat die aktuelle Studie des Oxford Internet Institute gelesen und referiert bei Zeit Online einige Kritikpunkte daran: "Die Studie misst lediglich Anzahl und Verbreitung falscher Informationen in sozialen Netzwerken – nicht aber, welche Wirkungen sie darüber hinaus entfalten, etwa mündlich oder über WhatsApp. Und wie so viele Studien beleuchtet auch diese ausführlich Twitter, mutmaßlich weil es einfach ist, dort Daten zu erheben. Zumindest in Deutschland nutzen aber verhältnismäßig wenig Menschen diesen Dienst, sodass die Aussagekraft einer solchen Untersuchung begrenzt ist." zeit.de Soziale Netzwerke: Ihr verbreitet ja kaum Lügen! (https://www.zeit.de/digital/internet/2019-05/ soziale-netzwerke-europawahl-falschnachrichten-facebook-twitter-studie/komplettansicht) Könnten Desinformationen und Falschnachrichten die Europawahl beeinflussen? Die Sorge vor solchen Lügen und Manipulationen war in der Europäischen Union groß - so groß, dass die EU- Kommission im Dezember 2018 einen Aktionsplan vorstellte: Falsche Meldungen wollte sie mithilfe von Faktencheckern frühzeitig erkennen, soziale Netzwerke wie Facebook und Twitter sollten sich ebenfalls engagieren und Kampagnen frühzeitig stoppen.

In der Columbia Journalism Review porträtiert Mathew Ingram eine Expertin für die Rolle der Massenmedien bei der Amplifikation von digitaler Desinformation: "Donovan’s research looks at how trolls and others - whether they are government-backed or freelance - can use techniques including 'social engineering' (lying to or manipulating someone to achieve a specific outcome) and low-level hacking to persuade journalists and news outlets of the newsworthiness of a specific campaign. 'Once that story gets picked up by a reputable outlet, it’s game time,' she says. Donovan and other misinformation experts warned that the Christchurch shooter’s massive essay about his alleged justification for the incident in April was clearly designed to get as much media attention as possible,

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 154 by playing on certain themes and popular topics, and they advised media outlets not to play into this strategy by quoting from it."

Columbia Journalism Review Media can help fight misinformation, says Harvard's Joan Donovan (https://www.cjr.org/ the_new_gatekeepers/media-misinformation-joan-donovan.php) Thanks to globe-spanning social platforms like Facebook, YouTube, and Twitter, misinformation (any wrong information) and disinformation (intentional misinformation like propaganda) have never been able to spread so rapidly or so far, powered by algorithms and automated filters. But misinformation expert Joan Donovan, who runs the Technology and Social Change Research Project at Harvard's Shorenstein Center, [...]

Einige einschlägige Daten zur Mediennutzung in Mitgliedsstaaten der EU präsentiert das Reuters News Institute:

(https://twitter.com/risj_oxford/status/1130867559203516417)

In Wien hat Anne Burkhard einen Vortrag zum Thema "Beiträge und Grenzen philosophischer Bildung im Umgang mit ‚Fake News‘" gehalten. Lisa Nimmervoll hat die Kölner Juniorprofessorin für den Standard dazu befragt und unter anderem folgende Antwort erhalten: "Philosophieunterricht kann gezielt erkenntnistheoretische Dimensionen des Phänomens beleuchten, etwa: Welche Bedeutung hat das Zeugnis anderer für unseren Wissenserwerb? Welche Faktoren spielen eine Rolle dafür, dass wir anderen Vertrauen schenken können? Wann sind Skepsis oder Urteilsenthaltung angebracht, wann wären sie unvernünftig und sogar gefährlich?" derstandard.at Philosophin: "Naive Skepsis ist nicht besser als naives Vertrauen" (https://derstandard. at/2000103511749/Philosophin-Anne-BurkardNaive-Skepsis-ist-nicht-besser-als-naives-Vertrauen)

Fake-News werden nicht nur von von US-Präsident Donald Trump als beliebtes Killerargument gegen unliebsame Wahrheiten ins Feld geführt, sondern sind auch reale Faktoren im öffentlichen Diskurs, aber auch in Wahlkämpfen, die damit manipuliert werden. Die Wahrheit ist also von mehreren Seiten unter Druck. Damit umzugehen, ist vor allem für junge Menschen eine große Herausforderung.

Gestern sendete das ZDF eine Diskussion mit deutschen Spitzenkandidaten für die Europawahl. Einige kontroverse Aussagen wurden im Anschluss überprüft und von der Redaktion kommentiert. Dabei geht es auch um korrekte Formulierungen wie bei der Kandidatin der Linken: "Demirel sagte, in keinem Mitgliedsstaat der europäischen Union dürfte jemand, der keine Arbeit hat, ein Existenzminimum von unterhalb 60 Prozent. In Deutschland seien das 1.050 Euro. Diese Aussage ist nur zum Teil richtig. Hier gilt es, nicht das Existenzminimum mit der Armutsgefährdungsgrenze zu verwechseln."

ZDF Wie geht's Europa?: Die Politikeraussagen im ZDFcheck19 (https://www.zdf.de/nachrichten/ heute/wie-gehts-europa-zdfcheck-100.html) Nach der Doku "Wie geht's, Europa?" diskutieren die deutschen EU-Spitzenkandidaten im ZDF. Die Aussagen der Politiker im ZDFcheck19. Das erste Duell des Abends lieferten sich die Spitzenkandidatin der Linken Özlem Demirel und von der FDP zum Themenkomplex Sozialpolitik und Arbeitsmarkt.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 155

Presseschau vom 21.5.

Von Erik Meyer 21.5.2019 ist Politikwissenschaftler und arbeitet als freier Journalist und Dozent zur Digitalisierung in Politik, Pop und Erinnerungskultur. Er ist Autor von „Zwischen Partizipation und Plattformisierung: Politische Kommunikation in der digitalen Gesellschaft“ (2019)

Junk News in Europa

Das Oxford Internet Institute (OII) hat eine erste Untersuchung über die Verbreitung sogenannter " Junk News" in sieben Sprachen via Facebook und Twitter im Vorfeld der Europawahl vorgelegt. Ein Ergebnis: "The most successful junk news stories in our data set tend to revolve around populist themes such as anti-immigration and Islamophobic sentiment, with few expressing Euroscepticism or directly mentioning European leaders or parties."

The Computational Propaganda Project Junk News during the EU Parliamentary Elections (https://comprop.oii.ox.ac.uk/research/eu- elections-memo/) Access to accurate information about politics and electoral processes is critical to the health of democratic systems. With this in mind, this data memo examines the quality and quantity of political news and information that social media users were sharing across seven European languages (English, French, German, Italian, Polish, Spanish, and Swedish) in the

Zum Verständnis, welche Angebote und Inhalte im Fokus der Analyse stehen, siehe hier diverse Dashboards mit aktuellen Einträgen und Angaben zur Methodologie:

Ox Junk News Aggregator - Daily Image Grid (https://newsaggregator.oii.ox.ac.uk/) Welcome to the Junk News Aggregator! We track the distribution of "junk news" on Facebook. Junk news sources deliberately publish misleading, deceptive or incorrect information purporting to be real news about politics, economics or culture. This content includes ideologically extreme, hyper-partisan, or conspiratorial news and information, as well as various forms of propaganda.

Bei Spiegel Online wirft Patrick Beuth einen Blick auf die Erhebung des OII: "Auf Facebook bekommen die Junk-News-Portale für einzelne Posts deutlich mehr Kommentare, Likes und Shares als seriöse Medien - in Deutschland zum Beispiel gut sechsmal so viele. Das sei thematisch bedingt, schreiben die Oxford-Forscher, denn typische Junk News setzten auf billige Klickanreize, emotionale Ansprache und Wut erzeugende Überschriften. Aber weil die etablierten Medien sehr viel mehr Artikel veröffentlichten, erreichten sie in der Summe trotz geringerer Shares deutlich mehr Menschen."

Spiegel Online Oxford-Studie: Kaum Desinformation zur Europawahl in sozialen Netzwerken (https://www. spiegel.de/netzwelt/web/oxford-studie-kaum-desinformation-zur-europawahl-in-sozialen-netzwerken- a-1268372.html) Die Mehrheit der Deutschen geht angeblich davon aus, dass gezielte Falschmeldungen die Europawahl beeinflussen können. "Sehr hoch" oder "eher hoch" sei diese Gefahr, antworteten 71 Prozent der Befragten in einer Untersuchung, die die Beratungsfirma PriceWaterhouseCoopers (PwC) am vergangenen Freitag veröffentlicht hat.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 156

Anfang Mai berichtete unter anderem die Tagesschau über einen problematischen "Einfluss im Netz auf öffentliche Debatten" durch die Dominanz von Beiträgen mit AfD-Bezug. Demgegenüber ist Sebastian Meineck vom Online-Magazin Vice nach einer Auseinandersetzung mit der dem Bericht zugrundeliegenden Studie der Ansicht: "Die Schlussfolgerungen der Tagesschau sind stark vereinfacht und zeichnen ein irreführendes Bild." Hier seine Analyse des Forschungsdesigns und der Folgen für die Interpretation:

Vice Seltsamer 'Tagesschau'-Bericht: Beherrscht die AfD das halbe Internet? (https://www.vice.com/ amp/de/article/597yy3/seltsamer-tagesschau-bericht-beherrscht-afd-das-halbe-internet) Bild: Laptop: Pixabay | CC0 || Twitter-Logo: Pixabay | CC0 | Hintergrund: Screenshot, ARD Mediathek || Collage: VICE Wer das Internet nicht nur für die aktuelle Wettervorhersage nutzt, hat es sicher schon mitbekommen: In sozialen Medien sind eine Menge AfD-Fans unterwegs. Aber wie dominant ist die AfD im Netz wirklich?

Barbara Schmidt-Mattern hat für den Deutschlandfunk unter anderem mit Parteien darüber gesprochen, mit welchen Manipulationen sie im Wahlkampf konfrontiert werden. Hier eine Aussage von einer Mitarbeiterin der grünen "Netzfeuerwehr": "Der Klassiker: Jemand nimmt unserer Corporate Design, baut auf der Basis alter Wahlplakate irgendwelche neuen in Photoshop. Er haut irgendwelche Claims drauf – ‚Tod dem weißen deutschen Mann‘ – und dann sieht das so aus, als wäre das ein Grünes Plakat, aber das ist es einfach nicht.'"

Deutschlandfunk Wahrheit und Fakenews - Wer beeinflusst uns im Europawahlkampf? (https://www. deutschlandfunk.de/wahrheit-und-fakenews-wer-beeinflusst-uns-im-europawahlkampf.1773.de. html?dram:article_id=449189) Zwischen den Bildschirmen Knabberzeug, Thermoskannen, Ladekabel und schon leicht braune Bananen. Am Schreibtisch hinten links sitzt Hanna Forys und klickt sich durch allerlei Datenbanken. Die 32-Jährige hat reichlich zu tun in diesen Tagen. In der Berliner Wahlkampf-Zentrale der Grünen beobachtet sie Facebook, Twitter und Co.

Der digitalpolitische Verein D64, der der SPD nahesteht, hat ein Positionspapier zum Thema "Politische Kommunikation im digitalen Raum" publiziert. Darin werden auch Forderungen zur Regulierung vertreten wie beispielsweise diese: "Die Betreiber von Plattformen sollen weiterhin dazu verpflichtet sein, Reports über ihre Fortschritte bei der Bekämpfung von Missbrauch ihrer Angebote zu veröffentlichen. Die von Facebook, Google, Twitter, Mozilla und Berufsverbände der Werbebranche veröffentlichten Reports im Rahmen der 'EU Code of Practice against disinformation'-Initiative der Europäischen Kommission müssen auch nach den Europawahlen regelmäßig fortgesetzt werden."

D64 Politische Kommunikation im digitalen Raum - Wie wir das Internet noch besser machen (https:// d-64.org/politische-kommunikation-im-digitalen-raum/) Der EU-Wahlkampf ist auf der Zielgeraden und wieder stehen die sozialen Medien im Fokus: Twitter sperrt die Accounts von Politiker*innen und Medien, Politiker*innen schalten Werbungen auf allen Kanälen und Parteien unterstützen mit speziell eingerichteten Online-Redaktionen. Kurzum: Das Internet ist längst zum zentralen Platz für die politische Auseinandersetzung geworden - im positiven wie im negativen Sinn.

Nico Schmidt und Daphné Dupont-Nivet berichten bei Buzzfeed News ausführlich darüber, dass die bisherige Regulierung der Plattformen in der EU unter starkem Druck erarbeitet wurde wie auch der Abschlussbericht einer Arbeitsgruppe dokumentiere: "Dass es einen Zusammenhang geben könnte zwischen den Geschäftsmodellen der Plattformen und der Reichweite und Geschwindigkeit von Desinformationskampagnen, das wurde im 44-seitigen Bericht nur einmal erwähnt – in einer Fußnote."

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 157

BuzzFeed Facebook hat offenbar Mitglieder einer EU-Expertengruppe unter Druck gesetzt, die Desinformation bekämpfen sollten (https://www.buzzfeed.com/de/nicoschmidt/eu-europawahl- desinformation-facebook-google-social-media) Facebook soll die Arbeit einer hochrangigen Expertengruppe gegen Desinformation behindert haben. Das behaupten vier Experten dieser Arbeitsgruppe in Gesprächen mit Investigate Europe und BuzzFeed News Deutschland. Durch mündliche Drohungen in den Pausen der Verhandlungen soll Facebook Mitglieder der Gruppe davon abgebracht haben, härtere Maßnahmen gegen die zunehmenden Desinformationen im Netz zu entwickeln.

Die britische Monitoring-Initiative "Who Targets Me" verweist auf die aktuelle Untersuchung einer Forschergruppe dazu, dass die Angaben, die etwa Facebook den Nutzern zu ihrer zielgruppenspezifischen Ansprache mit (politischer) Werbung macht, unvollständig seien:

(https://twitter.com/WhoTargetsMe/status/1130436848143261698)

Georgeta Toth fasst für die Computerwoche eine Vielzahl von Hinweisen zusammen, mit denen sich Nutzer vor Desinformation im Netz schützen können und gibt zu bedenken: "Dabei führt jedoch nur eine hohe Anzahl an Interaktionen dazu, dass 'Fake News' auch eine hohe Reichweite entfalten und auf diese Weise die Absichten ihrer Verfasser stützen. Deshalb ist es wichtig, Inhalte einem Faktencheck zu unterziehen, bevor man mit dem Post interagiert."

Computerwoche Europawahl 2019: So schützen Sie sich gegen Fake News (https://www.computerwoche.de/a/ so-schuetzen-sie-sich-gegen-fake-news,3547072) So blockieren Sie Bots und nutzen die Qualitäts- und Transparenzfilter von Facebook und Twitter, um Fake News in den sozialen Medien zu erkennen.

Der Journalist Daniel Funke hat sich angeschaut, wer bei den Initiativen beschäftigt ist, die zum International Factchecking Network gehören und reflektiert in einem ausführlichen Beitrag seine Einsichten zur Geschlechtsspezifik bei den dort Beschäftigten: "According to a Poynter analysis of fact-checking outlets around the world, about 41% of fact-checkers are women. In more than half of the individual organizations analyzed, women made up less than 50% of the editorial staff."

Poynter Men outnumber women in U.S. newsrooms. It's no different among fact-checkers (https://www. poynter.org/fact-checking/2019/men-outnumber-women-in-u-s-newsrooms-its-no-different-among- fact-checkers/). They debunk fake news stories, fact-check politicians' statements and partner with technology companies to limit the spread of falsehoods. They tell people what's true and what's false on a daily basis. And they ask the public to trust them to make those decisions. But are fact-checking outlets representative of their diverse readers?

Auch Satire wird immer wieder als Desinformation wahrgenommen. Till Eckert vom Recherchezentrum Correctiv klärt deshalb über eine Bildmontage auf, die den Auftritt einer AfD-Politikerin im Ibiza-Video mit Ex-FPÖ-Chef Strache zeigt: correctiv.org Nein, hat nach dem Strache-Video nicht angekündigt, zurückzutreten (https:// correctiv.org/faktencheck/politik/2019/05/20/nein-alice-weidel-hat-nach-dem-strache-video-nicht- angekuendigt-zurueckzutreten) Auf der Webseite „Noktara" wird behauptet, AfD-Chefin Weidel trete nach dem Strache-Video zurück. Dazu wurde ihr Gesicht in ein Standbild aus der Aufnahme montiert. Es handelt sich um offensichtliche

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 158

Satire.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 159

Presseschau vom 20.5.

Von Erik Meyer 20.5.2019 ist Politikwissenschaftler und arbeitet als freier Journalist und Dozent zur Digitalisierung in Politik, Pop und Erinnerungskultur. Er ist Autor von „Zwischen Partizipation und Plattformisierung: Politische Kommunikation in der digitalen Gesellschaft“ (2019)

Verpflichtung zur Transparenz?

Alex Spence berichtet bei Buzzfeed News über den Verdacht, dass die Follower-Zahlen des Twitter- Profils der britischen Brexit-Partei künstlich in die Höhe getrieben wurden: "Artificial amplification can distort political debates. It creates the impression that a particular issue, cause or politician is more popular than they really are. It promotes extreme opinions and aggravates disagreements. It could swing elections."

BuzzFeed Nigel Farage's Brexit Party Is Getting Huge Buzz On Twitter. Some Of It Doesn't Seem Real. (https://www.buzzfeed.com/alexspence/nigel-farages-brexit-party-twitter-following) Nigel Farage's Brexit Party is attracting big crowds, thousands of small donors, healthy support in opinion polls - and a legion of Twitter followers sharing its campaign messages at a breathless rate. "100,000 Twitter followers!" the party tweeted after its launch last month, celebrating another indication of its surging grassroots support.

Im von der Friedrich-Ebert-Stiftung herausgegebenen Online-Magazin "Internationale Politik und Gesellschaft" warnt Karin Pettersson vor der Macht der Plattformen und ihrem Missbrauch: "Statt uns zu informieren und uns Wissen bereitzustellen, wird mit der jetzigen Informationsinfrastruktur das Gegenteil erreicht. In der heutigen Welt verbreiten sich Lügen schneller und haben eine größere Reichweite als die Wahrheit. Natürlich hat es immer schon Desinformationen und Propaganda gegeben, aber nicht in diesem Ausmaß und nicht auf diese Art und Weise – zumindest nicht in funktionierenden Demokratien."

Ipg-journal Mächtig asozia (https://www.ipg-journal.de/regionen/global/artikel/detail/maechtig-asozial-3469/) l Vor zwei Wochen verkündete Facebook-Chef Mark Zuckerberg im kalifornischen San José auf der jährlich stattfindenden Entwicklerkonferenz seine Vision zur Zukunft des Unternehmens. Die Aufmerksamkeit von Medien aus aller Welt für diese Konferenz belegt, dass Facebook inzwischen mächtiger ist als die meisten Nationalstaaten.

Madhumita Murgia und Mehreen Khan resümieren in der Financial Times aktuelle Einschätzungen zur Situation vor der Europawahl: "But while there is no evidence of any co-ordinated, state-sponsored, disinformation campaigns, the platforms continue to struggle with ideological and often false information posted by national political parties and activists. 'The actors are transnational, non-state actors, like alt-right and far-right across Europe, a lot of them engaging with local groups,' said Sasha Havlicek, chief executive of the Institute for Strategic Dialogue, a think-tank that researches online propaganda."

Financial Times Disinformation war shifts ground ahead of EU elections (https://www.ft.com/content/

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 160 e4b4a814-77dd-11e9-bbad-7c18c0ea0201) As Europeans prepare to elect a new EU parliament next week, the world's biggest tech companies say they have yet to see any mass campaign to subvert or suppress the vote. There were fears that the poll, in which 427m citizens, would be a particular target because of the difficulty in policing content posted in dozens of languages across 28 EU countries.

Die Plattformen sind in der EU eine Selbstverpflichtung eingegangen. In diesem Rahmen berichten sie auch über ihre Maßnahmen. Die letzten Berichte vor der Europawahl sind gerade erschienen und die Europäische Kommission kommentiert: "Wir bedauern jedoch, dass Google und Twitter nicht in der Lage waren, Richtlinien für die Erkennung und Offenlegung themenbezogener Werbung aufzustellen und umzusetzen, da solche Werbeanzeigen während der Wahlen die öffentliche Debatte polarisieren können und somit für Desinformation anfällig sind."

European Commission Verhaltenskodex zur Bekämpfung von Desinformation: Kommission erkennt Bemühungen der Plattformen im Vorfeld der Europawahlen an (http://europa.eu/rapid/press-release_STATEMENT-19-2570_de. htm) European Commission - Press Release details page - Europäische Kommission - Erklärung Brüssel, 17.

Eines der Instrumente, die nun verfügbar sind, ist Facebooks Werbebericht: "Dieser Bericht zeigt die Anzahl der Werbeanzeigen mit Wahlwerbung oder Werbung zu Themen von nationaler Relevanz sowie die Gesamtausgaben für diese Anzeigen, die über einen bestimmten Zeitraum Personen im ausgewählten Land erreichen. Für eine umfassende Transparenz berichten wir über alle relevanten Versionen einer Werbeanzeige, die in den Systemen von Facebook gespeichert ist."

Facebook Facebook-Werbebericht (https://www.facebook.com/ads/archive/report)

Eine Auswertung des Berichts durch die britische Monitoring-Initiative "Who targets me" hat zum Beispiel folgendes Ergebnis hervorgebracht:

(https://twitter.com/WhoTargetsMe/status/1129419566474567680)

Heute übernimmt Wolodymyr Selenski das Präsidentenamt der Ukraine. Nina Jankowicz, Fellow eines Forums des US-Kongresses, vertritt bei Politico in scharfem Ton die Ansicht, dass Facebooks Maßnahmen während Wahlkampfs unwirksam waren: "Facebook’s efforts to weed out misinformation from the content available on its platform was a Potemkin village of regulations riddled with cracks and loopholes that were easily exploited by actors across the Ukrainian information ecosystem. The company’s patchy protection of the Ukrainian vote should be a wake-up call to Europe as its lawmakers grapple with how to guard against misinformation ahead of the European Parliament election later this month. It indicates that, despite Facebook’s self-reported progress fighting election interference, the tech giant’s efforts are still falling short."

(https://twitter.com/wiczipedia/status/1130359780575449088)

Sammy Khamis berichtet beim Bayrischen Rundfunk über ein Format digitaler Desinformation, bei dem ältere Inhalte als aktuelle Informationen ausgegeben werden: "Es handelt sich bei "Recycling"- Artikeln also nicht um sogenannte 'Fake News', also gezielte Falschmeldungen, da die Nachrichten selbst stimmen – oder vielmehr: gestimmt haben. Eben zu dem Zeitpunkt, als die Nachricht das erste Mal veröffentlicht wurde. Durch die Interaktionen, die sie hervorrufen, haben sie jedoch eine vergleichbare Wirkung, wie 'Fake News': Sie manipulieren die Nutzer."

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 161

BR24 "Recycling News": Keine Fakes und dennoch Manipulation (https://www.br.de/nachrichten/ deutschland-welt/recycling-news-keine-fakes-und-dennoch-manipulation,RQSBsZR) Der " Islamische Staat" plane Anschläge in Deutschland. Das twittert der AfD-Landtagsabgeordnete Uwe Junge aus Rheinland-Pfalz am 28. Dezember 2018. Die Meldung klingt alarmistisch, vor allem weil der IS Ende 2018 in Syrien und dem Irak kein Staat mehr ist und militärisch am Boden liegt.

Ein Foto von Wahlunterlagen wird aktuell als ein Anzeichen von Wahlbetrug gedeutet. Doch Alice Echtermann vom Recherchezentrum Correctiv weist darauf hin: "Das Foto zeigt keine Briefwahl- Unterlagen, sondern nur Wahlbenachrichtigungen, mit denen keine Stimmabgabe möglich ist." correctiv.org Nein, mit Wahlbenachrichtigungen kann man nicht für andere wählen (https://correctiv.org/ faktencheck/europa/2019/05/19/nein-mit-wahlbenachrichtigungen-kann-man-nicht-fuer-andere- waehlen) Im Netz verbreitet sich ein Foto eines Stapels Wahlbenachrichtigungen. Angeblich sollen sie an Wachkoma-Patienten in einem Krankenhaus geschickt worden sein. Die Urheber suggerieren, hier finde Wahlbetrug statt. Doch dafür gibt es keine Belege.

Bei einem Ranking von 35 Ländern bezüglich der Resilienz der Bevölkerung steht Finnland auf Platz 1. Dies ist der Ausgangspunkt für eine Reportage von CNN, die sich mit den betreffenden Bildungsmaßnahmen auseinandersetzt: "The exercises include examining claims found in YouTube videos and social media posts, comparing media bias in an array of different “clickbait” articles, probing how misinformation preys on readers’ emotions, and even getting students to try their hand at writing fake news stories themselves."

CNN Finland is winning the war on fake news. What it's learned may be crucial to Western democracy (https://edition.cnn.com/interactive/2019/05/europe/finland-fake-news-intl/) Helsinki, Finland (CNN) - On a recent afternoon in Helsinki, a group of students gathered to hear a lecture on a subject that is far from a staple in most community college curriculums. Standing in front of the classroom at Espoo Adult Education Centre, Jussi Toivanen worked his way through his PowerPoint presentation.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 162

Presseschau vom 17.5.

Von Erik Meyer 17.5.2019 ist Politikwissenschaftler und arbeitet als freier Journalist und Dozent zur Digitalisierung in Politik, Pop und Erinnerungskultur. Er ist Autor von „Zwischen Partizipation und Plattformisierung: Politische Kommunikation in der digitalen Gesellschaft“ (2019)

Fake News wahrnehmen

In Deutschland wurde eine repräsentative Umfrage zur Wahrnehmung von Desinformation durchgeführt, über die das IT-Magazin heise berichtet: "Beim Umgang mit Falschnachrichten zeigen sich viele Menschen unsicher: 44 Prozent der Befragten meinten, sie könnten Fake News wahrscheinlich nicht sicher erkennen und seien dadurch in ihrer Wahlentscheidung beeinflussbar. Bei der Bekämpfung der Falschnachrichten begrüßen die Befragten vor allem eine Löschungspflicht für Plattformbetreiber wie Facebook und Twitter (69 Prozent). Als geeignete Mittel werden auch eine Aufklärung der Bürger (68 Prozent) sowie eine Verpflichtung der Medien zur Identifikation und Richtigstellung von Falschinformationen (61 Prozent) gesehen." heise online Deutsche sehen durch "Fake News" Europawahl gefährdet (https://www.heise.de/newsticker/ meldung/Deutsche-sehen-durch-Fake-News-Europawahl-gefaehrdet-4423529.html) Die Mehrheit der Menschen in Deutschland befürchtet, dass die bevorstehende Europawahl durch Falschmeldungen manipuliert wird. 71 Prozent sehen laut der repräsentativen Studie "'Fake News' - Ergebnisse einer Bevölkerungsbefragung" der Wirtschaftsprüfungs- und Beratungsgesellschaft PricewaterhouseCoopers (PwC) eine Gefahr im Vorfeld der Europawahl durch "Fake News".

Das Digital Forensic Research Lab der US-Denkfabrik Atlantic Council hat irreführende Inhalte zum Thema "Immigration" untersucht, die aktuell zirkulieren. Nika Aleksejeva referiert bei Medium die verfälschende Vorgehensweise: "In their reposting of the videos, the anti-immigrant accounts stripped the videos of their original context and framed them with xenophobic narratives. Value-based narratives accompanied by visual content have the potential to gain a large amount of online traction, regardless of the true timing and context in which the visual content originated." medium.com Old Videos Repurposed as Anti-Immigrant Content Ahead of EP Elections (https://medium.com/ dfrlab/old-videos-repurposed-as-anti-immigrant-content-ahead-of-ep-elections-6fcb7a198a13)

Recycled footage spreads on Twitter and Facebook in the lead-up to the European Parliament election

Bei Buzzfeed News Deutschland fasst Pascale Mueller die Angaben von Twitter zu den aktuellen Konten-Sperrungen zusammen, die zuletzt sogar im Bundestag kontrovers diskutiert wurden: "Seit Tagen wird heftig über die Sperrungen und eine dahinter stehende neue Meldefunktion diskutiert. Nutzer sprechen von Zensur und Einschränkung der Meinungsfreiheit. Viele fürchten, Rechte könnten gezielt Einfluss auf die Stimmung in dem Netzwerk nehmen."

BuzzFeed 8 Antworten von Twitter auf die Frage, warum #Twittersperrt (https://www.buzzfeed.com/de/ pascalemueller/das-sagt-twitter-zu-twittersperrt) Ob Witze von Anwälten, Satire von Journalisten oder Artikel von Zeitungen: Seit dem vergangenen Wochenende werden vermehrt Twitter-Nutzer von der Plattform gesperrt. Als Grund nennt Twitter:

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 163 angebliche Manipulationen oder Falschinformation vor Wahlen. Absurd, sagen die Betroffenen, darunter die Berliner Staatssekretärin Sawsan Chebli, der SPD-Abgeordnete Sven Kohlmeier und auch die Wochenzeitung „Jüdische Allgemeine".

Und Eike Kühl adressiert bei Zeit Online pointiert das problematische Beschwerdenmanagement der Plattform: "Am Ende ist es neben der politischen Komponente auch die Willkür vonseiten Twitters und die Machtlosigkeit aufseiten der Betroffenen, die Nutzerinnen und Nutzer kritisieren. In seinem Bestreben, gegen Wahlmanipulation vorzugehen, hat das soziale Netzwerk seine Meldefunktion so stark gemacht, dass sie auch von Trollen ausgenutzt wird."

Zeit Online Twitter-Accounts: Satire schützt vor Sperrung nicht (https://www.zeit.de/digital/ internet/2019-05/twitter-accounts-sperrung-wahlbeeinflussung-satire-beschwerde/komplettansicht)

Twitter kann es niemandem recht machen. Das soziale Netzwerk wird einerseits von Politikern und Politikerinnen, aber auch von vielen Nutzerinnen und Nutzern aufgefordert, Hasskommentare und möglicherweise manipulative Tweets im Kontext von Wahlen stärker zu moderieren. Andererseits ist das Geschrei groß, wenn Twitter dann seine Richtlinien verschärft und vermehrt Accounts sperrt.

Recht weitgehende Konsequenzen zieht Viktor Funk aus der Wahrnehmung einer umfassenden Fehlentwicklung der Plattformen in seinem Kommentar in der Frankfurter Rundschau: "Ein Medium, das eine demokratische Gesellschaft schädigt, darf aus diesem Schaden keine Gewinne erzielen. Wenn der digitale Kapitalismus bisher von Gewalt und Hass profitiert, dann sind es die politischen Rahmenbedingungen, die ihm diesen Profit ermöglichen. Also lässt sich an dieser Stelle auch etwas dagegen tun: Wer nicht in der Lage ist, Fake News und Hetze einzudämmen, könnte bestraft oder öffentlicher Kontrolle unterzogen – oder im Zweifel zerschlagen werden."

Frankfurter Rundschau Twitter & Co: #Hass und #Hetze (https://www.fr.de/meinung/twitter-facebook-hass- hetze-12286523.html) Leitartikel Das Problem an Twitter und Co ist: Ihre Macht ist größer als ihre Kompetenz, mit dieser Macht verantwortlich umzugehen. Im Juni 2009 lautete der wichtigste Hashtag auf Twitter #iranelection; das gesamte Jahr 2011 dominierten auf Twitter die Hashtags #egypt, #libya - es waren Schlagwörter, die für Umbrüche im Iran, in Ägypten und Libyen standen, die quasi dokumentierten, was in den Ländern geschieht, die auch zeigten, wie sich Aktivisten dank des jungen Mediums organisierten.

Daniel Boffey rekapituliert im Guardian ergänzend zum International Factchecking Network (IFCN) verfolgte Bemühungen, deren Unterstützung durch die EU bereits im April 2018 angekündigt wurde: " A year on – and after an EU investment of €1m (£867,000) – eight factchecking organisations in six EU countries have been approved as members of this Brussels-backed collaborative platform, known as the Social Observatory for Disinformation and Social Media Analysis (Soma). Two are IFCN signatories. The network is incomplete, and still not up and running with days to go before Europeans have their vote."

The Guardian 'Now is the time': the journalists fighting fake news before the EU elections (https://www. theguardian.com/politics/2019/may/16/now-is-the-time-the-journalists-fighting-fake-news-before- the-eu-elections) With warnings of likely Russian meddling, Europe's debunkers are picking up the pace

Das ZDF hat einige Zahlen, die von den Spitzenkandidaten von EVP und SPE in einem TV-Duell zur Europawahl vorgetragen wurden, überprüft. "Im Themenbereich Soziale Gerechtigkeit debattierten die Kandidaten über eine EU-weite Arbeitslosenversicherung. Dies sei schwer umsetzbar, solange die

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 164

Griechen ein Renteneintrittsalter von 65 Jahren hätten, Deutschland aber 67 Jahre, meinte EVP- Spitzenkandidat Manfred Weber: Webers Angabe zum Renteneintrittsalter in Griechenland stimmt so nicht ganz. Das gesetzliche Renteneintrittsalter dort wurde im Jahr 2016 auf 67 Jahre angehoben."

ZDF TV-Debatte zur Europawahl: Weber gegen Timmermans im ZDFcheck (https://www.zdf.de/ nachrichten/heute/tvduell-timmermans-weber-renteneintritt-wochenarbeitszeit-mindestlohn-im- zdfcheck-100.html) Arbeits- und Sozialpolitik - ein großes Thema im #tvDuell zwischen Frans Timmermans und Manfred Weber. Was ist an den Aussagen der Politiker dran? Der ZDFcheck zum Duell. Im Themenbereich Soziale Gerechtigkeit debattierten die Kandidaten über eine EU-weite Arbeitslosenversicherung.

Eine Aussage von Frans Timmermans (SPE) in dieser Debatte prüft der WDR:

(https://twitter.com/aktuelle_stunde/status/1129249576513429505)

Tipps, die helfen Falschmeldungen zu erkennen, hat das Recherchezentrum Correctiv zusammengetragen und weist unter anderem darauf hin, dass diese nicht nur von Nachrichtenseiten oder politischen Akteuren kommen: "Doch auch Freunde oder Verwandte können Dir Falschmeldungen schicken, zum Beispiel über WhatsApp und Co. Meist glaubt man diesen eher, als anderen Meldungen im Internet, weil man seinen Bekannten einen Vertrauensvorschuss gewährt. Ist eine Mitteilung neu, aufregend, verstörend oder scheint unglaublich, kann man seine Bekannten nach einer Quelle fragen oder selbst recherchieren." correctiv.org Diese Tipps helfen, Falschmeldungen zu erkennen (https://correctiv.org/faktencheck/ueber- uns/2019/05/14/diese-tipps-helfen-falschmeldungen-zu-erkennen) Wer verbreitet eine zweifelhafte Meldung? Frage Dich, wer die Meldung verbreitet. Lässt sich herausfinden, wer hinter einer Facebook-Seite oder einem Twitter-Account steht? Ist die Webseite bekannt? Hat sie ein Impressum in dem die Verantwortlichen und Adressen aufgelistet sind? Manchmal steht im „Über uns"-Bereich einer Webseite, dass diese Satire verbreitet, oder frei erfundene Geschichten

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 165

Presseschau vom 16.5.

Von Erik Meyer 16.5.2019 ist Politikwissenschaftler und arbeitet als freier Journalist und Dozent zur Digitalisierung in Politik, Pop und Erinnerungskultur. Er ist Autor von „Zwischen Partizipation und Plattformisierung: Politische Kommunikation in der digitalen Gesellschaft“ (2019)

Warum #Twittersperrt

Gestern standen im Zusammenhang mit der Umsetzung einer "Richtlinie zur Integrität von Wahlen" des Unternehmens Zensurvorwürfe gegen Twitter auf der Tagesordnung des Bundestagsausschusses "Digitale Agenda". Vor der Sitzung gab es bereits eine Kontroverse um die Frage, ob dieses Thema öffentlich verhandelt werden soll, was die Regierungsfraktionen abgelehnt haben. Stattdessen wird von einem SPD-Mitglied im Ausschuss für Anfang Juni eine öffentliche Anhörung in Aussicht gestellt:

(https://twitter.com/EskenSaskia/status/1128589555299442689)

Patrick Beuth resümiert bei Spiegel Online unter anderem die Aussagen der anwesenden Twitter- Vertreterin zur Frage, ob die aktuellen Sperrungen von Nutzer-Konten einen politischen Hintergrund haben könnten: "Morschhäuser zufolge kann Twitter die Gesinnung seiner Nutzer jedoch nicht beurteilen. Allerdings habe das Unternehmen festgestellt, dass es in Deutschland zehnmal so viele Meldungen wegen angeblich irreführender Informationen zu Wahlen gibt wie in den anderen EU- Ländern. Das spricht durchaus für einen gewissen Organisationsgrad der Meldenden."

Spiegel Online Twitter-Scherze zur Europawahl sind nicht mehr erlaubt (https://www.spiegel.de/netzwelt/ netzpolitik/twitter-scherze-zur-europawahl-sind-nicht-mehr-erlaubt-a-1267591.html) "Zensurvorfälle bei Twitter" standen am Mittwoch auf der Tagesordnung des Digitalausschusses des Bundestages. Anlass waren die etlichen Account-Sperrungen durch das US-Unternehmen wegen vermeintlicher "Irreführung" in Bezug auf die Europawahl. Die sollte eine Vertreterin des Unternehmens in einer nichtöffentlichen Anhörung erklären. Nach fast anderthalb Stunden waren die Ausschussmitglieder nicht restlos zufrieden, aber um einige bemerkenswerte Erkenntnisse reicher.

(https://twitter.com/anked/status/1128660574408249345)

Malte Lehming kommentiert im Tagesspiegel kritisch: "Dennoch mutet der eskalierende Verbannungsaktionismus von Facebook und Twitter willkürlich an. Die Kriterien sind ebenso intransparent wie das Verfahren. Nicht Gerichte entscheiden darüber, ob eine Aussage vom Menschenrecht auf Meinungsfreiheit gedeckt ist, sondern Algorithmen und Konzernmitarbeiter."

Tagesspiegel Der Verbannungs-Aktionismus von Facebook und Twitter ist willkürlich (https://www. tagesspiegel.de/politik/freie-rede-im-internet-der-verbannungs-aktionismus-von-facebook-und- twitter-ist-willkuerlich/24345706.html) Es dröhnt immer lauter: „Hass und Hetze gehören verboten!" Und: „Wer Wahlen manipuliert oder Verschwörungstheorien verbreitet, muss aus den sozialen Netzwerken verbannt werden!" Das islamfeindliche Massaker von Christchurch, wo vor zwei Monaten ein Rassist die Gläubigen in zwei Moscheen angegriffen und 51 Menschen ermordet hatte, gilt als vorerst letzte Warnung.

Doch was lässt sich gegen die Regeln tun, die Privatunternehmen für die Kommunikation auf ihren

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 166

Plattformen aufstellen? Der Journalist Dennis Horn vertritt folgenden Vorschlag:

(https://twitter.com/horn/status/1128741143590658049)

Gerade sehen sich die Plattformen auch in den USA mit Zensurvorwürfen konfrontiert. Dort fühlen sich eher konservative Akteure betroffen. Nun unterhält das Weiße Hause sogar ein Online-Angebot, mit dem Nutzer der Regierung solche Fälle melden sollen. Dort heißt es: "Yet too many Americans have seen their accounts suspended, banned, or fraudulently reported for unclear 'violations' of user policies. No matter your views, if you suspect political bias caused such an action to be taken against you, share your story with President Trump." Darüber berichtet Makena Kelly bei The Verge:

The Verge White House launches tool to report censorship on Facebook, YouTube, Instagram, and Twitter (https://www.theverge.com/2019/5/15/18626785/white-house-trump-censorsip-tool-twitter-instagram- facebook-conservative-bias-social-media) Over the past few months, Republicans have taken aim at social media networks, citing claims that conservatives have been wrongly censored on these platforms. Some committees, like House Energy and Commerce and Senate Judiciary, have even held hearings on the issue where lawmakers questioned officials from companies like Facebook and Twitter over the alleged bias.

Die Zeit eruiert in einem ausführlichen Hintergrundbericht Aspekte der russischen Internet Research Agency, die für digitale Desinformation bei der US-Präsidentschaftswahl 2016 verantwortlich gemacht wird und sieht auch Indizien für aktuelle Versuche der Einflussnahme: "Niemand weiß, wie viele solcher Trolle es gibt oder wie viele Menschen im Netz auf sie hereinfallen. Nur dass es sie gibt, lässt sich nicht bestreiten. Und dass auch die Europawahl auf ihrer Agenda steht."

Zeit Online Russland: Die Scharfmacher (https://www.zeit.de/2019/21/russland-trolle-twitter-europawahl- daten-manipulation/komplettansicht) Man könnte diesen Twitter-Nutzer für einen vielseitig interessierten EU-Bürger halten. Er meldet sich bis zu 60 Mal pro Tag, auf Niederländisch, Deutsch, Englisch und Spanisch. Er kommentiert Urteile des Europäischen Gerichtshofs für Menschenrechte ebenso wie die Krimkrise oder die Katalonienfrage.

Über die Kooperation von Facebook mit Faktenprüfern reden im Podcast "Filterbabbel" die Journalistinnen Ann-Kathrin Büüsker und Karolin Schwarz, die auch einen Beitrag für das Dossier "Digitale Desinformation" verfasst hat:

Filterbabbel - Der Podcast über digitale Öffentlichkeit Juristischer Ärger für Facebook-Faktenchecker? (https://filterbabbel.podigee.io/3-juristischer- arger-fur-facebook-faktenchecker) Und welche Säue werden diese Woche durch das digitale Dorf getrieben? Ann-Kathrin Büüsker und Karolin Schwarz diskutieren über aktuelle Themen aus der digitalen Öffentlichkeit. Im Mittelpunkt stehen technologische Entwicklungen und gesellschaftliche Diskussionen im digitalen Raum - und wie sich beides bedingt.

Die ARD-Sendung panorama berichtet heute über die "Herausforderung Medienkompetenz: Wir haben 34 Schülern zwischen 14 und 20 Jahren aus zwei Gesamtschulen in Hamburg und Schleswig-Holstein verschiedene Aufgaben vorgelegt. Die Beispiele sind aus dem Alltag gegriffen." ndr.de Fake-News erkennen: Panorama macht den Schul-Test (https://daserste.ndr.de/panorama/ archiv/2018/Fake-News-erkennen-Panorama-macht-den-Schul-Test,medienkompetenz114.html)

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 167

Stand: 16.05.19 06:00 Uhr von Christian Deker & Carolin Fromm Das Bild eines mutierten Gänseblümchens, gepostet auf der Fotoplattform "Imgur" im Internet. Überschrift: "Fukushima Nuclear Flowers". Was denken Menschen, wenn sie dieses Bild sehen? "Man sieht die Folgeschäden von dem Unfall, der in Fukushima passiert ist", sagt Lukas Bahr, 18 Jahre alt*.

Hilfreich bei der Bewertung von Inhalten aus dem Internet können die Video-Tutorials der Initiative klickwinkel sein, die relevante Aspekte erklären. Hier die Übersicht für Lernende, aber es gibt dort auch Anleitungen für Lehrende:

Klickwinkel Tutorials und Informationen zu Fake News, Algorithmen und Videos. (https://klickwinkel.de/ tutorials/schueler/algorithmen-fake-news) Wir zeigen Dir wie Algorithmen funktionieren und Du Fake News spielend enttarnen kannst. Weite Deinen digitalen Blick mit unseren Tutorials.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 168

Presseschau vom 15.5.

Von Erik Meyer 15.5.2019 ist Politikwissenschaftler und arbeitet als freier Journalist und Dozent zur Digitalisierung in Politik, Pop und Erinnerungskultur. Er ist Autor von „Zwischen Partizipation und Plattformisierung: Politische Kommunikation in der digitalen Gesellschaft“ (2019)

Resilient gegen Fake News

Die Kommunikationswissenschaftlerin Lena Frischlich, Autorin eines Beitrags im Dossier "Digitale Desinformation", weist auf eine aktuelle Konzeptualisierung des kontroversen Begriffes "Fake News" hin, die sie mitformuliert hat und nun in die International Encyclopedia of Journalism Studies aufgenommen wurde:

(https://twitter.com/Lenafrescamente/status/1128334001738006528)

Alexander Sängerlaub, der ebenfalls einen Beitrag im Dossier "Digitale Desinformation" verantwortet, betont im Interview mit dem Deutschlandfunk die Notwendigkeit, die Nutzer aufzuklären: "Resilient heißt, dass man sicher ist oder stark genug ist, um quasi auch mit solchen Desinformationskampagnen als Bürger umzugehen. Das heißt, dass man selber vielleicht Quellen checkt, dass man Sachen, die einem spanisch vorkommen, noch mal prüft, dass man selber einfach vorsichtig mit Informationen umgeht, die einen in sozialen Netzwerken erreichen. Wenn wir das hinkriegen und medienkompetent handeln, hilft das uns allen sehr für die Europawahl."

Deutschlandfunk Fake News - "Einstellungsänderungen durch Desinformationen sehr selten" (https://www. deutschlandfunk.de/fake-news-einstellungsaenderungen-durch-desinformationen.694.de.html? dram:article_id=448702) Sandra Schulz: In knapp zwei Wochen wählen die Menschen in den 28 EU-Mitgliedsstaaten -anders als lange geplant auch die Briten - ein neues Europäisches Parlament.

Eine Auswahl von Lernmaterialien zum Thema "Fake News", die online verfügbar sind, bietet das Angebot "Digitale Bildung trifft Schule" der Initiative Deutschland sicher im Netz:

Digibits Du hast nach fake news gesucht (https://www.digibits.de/?s=fake+news&post_type= schoolmaterial)

Digitale Bildung trifft Schule

Von einer Desinformationskampagne, die das Citizen Lab an der Universität Toronto mit dem Iran in Verbindung bringt, berichtet Craig Silvermann für das Online-Magazin BuzzfeedNews: "Since early 2016, the operation published 135 fabricated articles on websites designed to mimic outlets such as the Guardian, Bloomberg, Al Jazeera, the Independent, the Atlantic, and Politico. In one example, a fake article claiming that six Arab nations called on FIFA to strip Qatar of its role as host of the 2022 World Cup was covered by Reuters, which caused other outlets to spread the disinformation."

BuzzFeed News An Iranian Disinformation Operation Impersonated Dozens Of Media Outlets To Spread Fake Articles (https://www.buzzfeednews.com/article/craigsilverman/iran-disinformation-campaign)

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 169

An ambitious online disinformation campaign that impersonated major media outlets, used fake Twitter accounts to spread false articles, and targeted real journalists is likely linked to Iran, according to researchers who tracked it for close to two years.

Bezugnehmend auf das Christchurch-Massaker hat Facebook Restriktionen für die Live-Übertragung von Videos angekündigt. In diesem Zusammenhang führt die Plattform weitere Bemühungen zur Erkennung von manipuliertem Material an: "That’s why we’re partnering with The University of Maryland, Cornell University and The University of California, Berkeley to research new techniques to:

• Detect manipulated media across images, video and audio, and

• Distinguish between unwitting posters and adversaries who intentionally manipulate videos and photographs."

Facebook Newsroom Protecting Facebook Live from Abuse and Investing in Manipulated Media Research (https:// newsroom.fb.com/news/2019/05/protecting-live-from-abuse/) Following the horrific terrorist attacks in New Zealand, we've been reviewing what more we can do to limit our services from being used to cause harm or spread hate. As a direct result, starting today, people who have broken certain rules on Facebook - including our Dangerous Organizations and Individuals policy - will be restricted from using Facebook Live.

Twitter verweist Nutzer bei der Suche nach Inhalten mit Bezug zu Impfungen inzwischen in einigen Ländern auf eine offizielle Quelle wie The Verge berichtet: "Twitter has used a similar tool that prompts users who search for terms related to suicide to contact a hotline for help. According to the blog post, Twitter intends to extend this tool to other health-related search terms in the future."

The Verge Twitter fights vaccine misinformation with new search tool (https://www.theverge. com/2019/5/14/18623494/twitter-vaccine-misinformation-anti-vax-search-tool-instagram-facebook)

Twitter announced that it would be launching a new tool in search that would prompt users to head to vaccines.org, which is run by officials at HHS.

Heute steht das Thema "#Twittersperrt" auf der Tagesordnung des Bundestagsausschusses "Digitale Agenda". Alexej Hock berichtet bei Welt.de vorab über die nicht-öffentliche Sitzung: "Der digitalpolitische Sprecher der Unionsfraktion, (CDU), fordert dort Aufklärung, ob das Unternehmen seine internen Abläufe angepasst habe oder ein rein technischer Fehler im Algorithmus die Ursache sei. 'Mir scheint, dass es um technische Fehler ging. Dazu erwarte ich dringende Aufklärung und Transparenz von Twitter, denn aufgrund seiner herausgehobenen Position im Rahmen der digitalen Meinungsbildung steht das Unternehmen klar in der Pflicht', so Schipanski."

Die Welt Twitter-Sperrungen: Netzpolitiker fordern Aufklärung von Plattform (https://www.welt.de/ politik/deutschland/article193506379/Twitter-Sperrungen-Netzpolitiker-fordern-Aufklaerung-von- Plattform.html) Deutschland Account-Sperrungen | Lesedauer: 4 Minuten Twitter sperrt irrtümlich Accounts, erklärt aber nicht, wie es dazu kam. Betroffen waren Sawsan Chebli, die „Jüdische Allgemeine" und viele

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 170 andere Nutzer. Netzpolitiker fordern von der Plattform Aufklärung. Ein drei Jahre alter Beitrag auf Twitter zeigt die Grenze dessen auf, was die Algorithmen der großen sozialen Netzwerke leisten können.

"Tagesticket - Der Früh-Podcast" des Bayrischen Rundfunks greift heute das Thema unter dem Titel " Gelöscht und blockiert - Zensur bei Twitter zur Europawahl?" auf und spricht dazu mit dem Social- Media-Experten Luca Hammer über die Brisanz des Overblockings von Twitter-Profilen während eines Wahlkampfs:

BR Podcast Gelöscht und blockiert - Zensur bei Twitter zur Europawahl? (https://www.br.de/mediathek/ podcast/tagesticket-der-frueh-podcast/geloescht-und-blockiert-zensur-bei-twitter-zur-europawahl/1602448)

Zwei Wochen vor der Wahl werden viele Tweets gelöscht, die eigentlich in Ordnung sind - was eine von Twitter selbst verfasste Richtlinie damit zu tun hat. Und: So sehen wir im Supermarkt, welche Lebensmittel gesund für uns sind.

Im Format "Fragen und Antworten" beschäftigt sich der ARD-faktenfinder mit dem Thema "Strengere Regeln für Messerträger", das aktuell kontrovers diskutiert wird. Wie sieht die Situation überhaupt aus? "In Hessen und Rheinland-Pfalz ist die Zahl der Straftaten mit Stichwaffen in den vergangenen Jahren gestiegen. In Berlin ist die Zahl annähernd stabil geblieben und in Schleswig-Holstein sogar gesunken. Eine einheitliche Entwicklung lässt sich aus den unterschiedlichen Statistiken nicht ablesen." tagesschau.de FAQ: Strengere Regeln für Messerträger? (http://www.tagesschau.de/faktenfinder/inland/ messer-103.html) Niedersachsen und Bremen wollen die Regeln für das öffentliche Tragen von Messern verschärfen. Warum? Und welche politischen Erfolgsaussichten hat das Vorhaben? Von Eckart Aretz, Fabian Grabowsky, Konstantin Kumpfmüller und Wulf Rohwedder, ARD-faktenfinder Die beiden Landesregierungen wollen, dass "das Mitführen von Waffen und Messern in der Öffentlichkeit insbesondere an stark frequentierten Orten weiter eingedämmt" wird.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 171

Presseschau vom 14.5.

Von Erik Meyer 14.5.2019 ist Politikwissenschaftler und arbeitet als freier Journalist und Dozent zur Digitalisierung in Politik, Pop und Erinnerungskultur. Er ist Autor von „Zwischen Partizipation und Plattformisierung: Politische Kommunikation in der digitalen Gesellschaft“ (2019)

Twitters Gesprächskultur

Im Gegensatz zu Meldungen vom Vortrag steht folgende Einschätzung zu Versuchen manipulativer Einflussnahme: "'Nicht alle Vorgänge haben unbedingt direkten Bezug zur Europawahl', sagte der Kommissionssprecher dazu. 'Das ist nicht so plump. Es geht auch darum, das Vertrauen in das politische System an sich zu erschüttern oder zu untergraben, um Risse in der Gesellschaft auszuweiten oder zu verstärken.'"

Die Welt Medien: Bisher kein "Alarm" im EU-Frühwarnsystem gegen Beeinflussung der Europawahl (https://www.welt.de/newsticker/news1/article193445815/Medien-Bisher-kein-Alarm-im-EU-Fruehwarnsystem- gegen-Beeinflussung-der-Europawahl.html#) Der EU sind zur Europawahl noch keine groß angelegten Beeinflussungs- oder Manipulationsversuche gemeldet worden. In einem seit Mitte März genutzten Frühwarnsystem der Mitgliedstaaten und EU- Institutionen sei bisher kein europaweiter "Alarm" ausgelöst worden, sagte ein Sprecher der EU- Kommission der Nachrichtenagentur AFP. Die "heiße Phase" mit Blick auf die Europawahl vom 23.

Der Rat der Europäischen Union hat am 13. Mai 2019 den EU-Jahresbericht 2018 über Menschenrechte und Demokratie in der Welt angenommen. Darin ist auch digitale Desinformation und die Maßnhamen der EU dagegen ein Thema:

(https://twitter.com/EU_MediaLit/status/1128214503286550528)

Das Bundesamt für Verfassungsschutz beschäftigte sich gestern bei einem Symposium unter anderem mit dem Thema "Digitaler Meinungskampf – Ziele und Wirkungsweisen beim Einsatz sozialer Medien ". Die Online-Plattform MiGAZIN berichtet über die Aussagen des Präsidenten Thomas Haldenwang dazu: "Extremisten verstünden es, Themen aufzugreifen, über die sie ihre extremen Positionen verbreiten können. Als Beispiel nannte er die Kriminalität von Ausländern. Zudem setzten sie auf Emotion, die Delegitimierung des Staates, indem er als ohnmächtig dargestellt wird, und vor allem auf Desinformation, sagte Haldenwang. Durch Kommunikationsformen im Netz – Webseiten, Social Media und Messenger – erreichten die bewussten Falschinformationen mehr Menschen als es früher möglich gewesen wäre."

Migazin Verfassungsschutzchef warnt vor Normalisierung rechtsextremer Inhalte (http://www.migazin. de/2019/05/14/verfassungsschutzchef-warnt-vor-normalisierung-rechtsextremer-inhalte/) Sie suchen anschlussfähige Themen, die Nähe zum normalen Bürger und vergiften das Klima dann mit Propaganda und Desinformation: Die Mobilisierungsstrategien von Rechtsextremen machen dem Verfassungsschutz zunehmend Sorgen. Es gebe neue Dynamiken, sagte der Präsident des Bundesamts für Verfassungsschutz, Thomas Haldenwang, am Montag in Berlin.

Nun war mit dem Profil @JuedischeOnline auch erstmals eine Zeitung, die Jüdische Allgemeine, im aktuellen Kontext einer "Richtlinie zur Integrität von Wahlen" von einer Sperrung betroffen: "Anlass

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 172 soll eine am Sonntag verbreitete Twitter-Meldung 'Warum Israels Botschafter Jeremy Issacharoff auf Gespräche und Treffen mit der AfD verzichtet' sein. Der Tweet wies auf einen Artikel im Online-Angebot der Jüdischen Allgemeinen über ein mit der Deutschen Presse-Agentur geführtes Interview des israelischen Botschafters hin."

Jüdische Allgemeine Twitter blockiert Account der "Jüdischen Allgemeinen" (https://www.juedische-allgemeine.de/ politik/twitter-blockiert-account-der-juedischen-allgemeinen/) Twitter hat den Account der Jüdischen Allgemeinen vorübergehend für diverse Funktionen gesperrt. In einer automatischen Mitteilung des Onlinedienstes hieß es, man habe gegen die Regeln "zum Veröffentlichen von irreführenden Informationen zu Wahlen" verstoßen. AFD Anlass soll eine am Sonntag verbreitete Twitter-Meldung "Warum Israels Botschafter Jeremy Issacharoff auf Gespräche und Treffen mit der AfD verzichtet" sein.

Auch ein weiterer SPD-Politiker war betroffen, berichten Robert Kiesel sowie Paul Dalg für den Tagesspiegel und befragen dazu den Social-Media-Experten Luca Hammer: "Unklar bleibt, ob es sich bei den vermehrten Sperrungen um das Ergebnis politisch motivierter Melde-Kampagnen handelt. Hammer sagte lediglich, es gebe Aufrufe, die zur Suche verdächtiger Tweets auffordern und erklärte: 'Ich kann mir nicht vorstellen, dass Twitter von sich aus alter Tweets durchsucht.'“

Tagesspiegel Twitter sperrt vorübergehend Account von SPD-Abgeordnetem (https://www.tagesspiegel.de/ berlin/wegen-afd-tweet-twitter-sperrt-voruebergehend-account-von-spd-abgeordnetem/24334490. html) Ausgerechnet Sven Kohlmeier: Der Kurznachrichtendienst Twitter hat den Account des netzpolitischen Sprechers der SPD-Fraktion im Abgeordnetenhaus vorübergehend gesperrt. Begründet wurde der Schritt mit einem "Verstoß gegen unsere Regeln zum Veröffentlichen von irreführenden Informationen zur Wahl". Weiter hieß es, Twitter-Nutzer dürften keine Inhalte veröffentlichen, "in denen falsche Informationen oder zur Wahlregistrierung bereitgestellt werden."

Beide Profile sind zwischenzeitlich wieder entsperrt worden und Twitter geht erstmals öffentlich auf die Problematik ein, allerdings nur mit einer sehr allgemein gehaltenen Einlassung:

(https://twitter.com/TwitterDE/status/1127941688377389061)

Nicola Beer von der FDP weist darauf hin, dass Twitter sich am 15. Mai im Bundestag zu den Vorgängen äußern soll:

(https://twitter.com/nicolabeerfdp/status/1127946640218705921)

Die Rede von "Gesprächskultur" einerseits und "Shadowban" andererseits bezieht sich darauf, dass bereits im letzten Jahr von der Plattform Maßnahmen verkündet wurden, "to improve the health of the public conversation on Twitter": "Because this content doesn’t violate our policies, it will remain on Twitter, and will be available if you click on 'Show more replies' or choose to see everything in your search setting. The result is that people contributing to the healthy conversation will be more visible in conversations and search."

Twitter In March, we introduced our new approach to improve the health of the public conversation on Twitter. One important issue we've been working to address is what some might refer to as "trolls." Some troll-like behavior is fun, good, and humorous. (https://blog.twitter.com/en_us/ topics/product/2018/Serving_Healthy_Conversation.html) In March, we introduced our new approach to improve the health of the public conversation on Twitter.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 173

One important issue we've been working to address is what some might refer to as "trolls." Some troll- like behavior is fun, good, and humorous.

Das Recherchezentrum Correctiv hat bis zur Europawahl eine offene Redaktion für Faktenchecks eingerichtet: "Wer Fragen zur EU hat, unsicher ist, ob eine Behauptung stimmt oder nicht, kann uns gerne Fragen schicken, an [email protected]. Außerdem starten wir eine Facebook-Gruppe, wo wir über unsere Faktenchecks und Desinformation sprechen, und auch Hinweise zu potentiellen Falschmeldungen entgegen nehmen." correctiv.org Faktencheck startet eine offene Redaktion zur EU-Wahl (https://correctiv.org/faktencheck/ ueber-uns/2019/05/13/correctiv-faktencheck-startet-eine-offene-redaktion-zur-eu-wahl) Heute starten wir unsere offene Faktencheck-Redaktion in Essen. Dafür wird unser Team unterstützt von Mitgliedern unserer Leser-Faktencheck-Redaktion „CheckJetzt". Gemeinsam sind wir in unserer Redaktion erreichbar für Fragen von Allen, die sich für unsere Arbeit interessieren. In den vergangenen Wochen haben wir bereits vermehrt Falschmeldungen über die anstehende Wahl bemerkt: verfälschte Wahlplakate, erfundene Politiker-Zitate oder verzerrte EU-Vorhaben.

Erst nach der Europawahl veranstaltet die Deutsche Presse-Agentur ein Forum für Faktenprüfer. Unter anderem geht es beim #dpaVerithon um Tricks und Tipps für die Redaktionsarbeit, um den Einsatz von Künstlicher Intelligenz bei Faktenchecks, um Recherchepraxis und Datenanalyse. dpa dpa-Verithon (https://www.dpa.com/de/unternehmen/dpa-zeichnet-aus/dpa-verithon/#dpa-verithon)

Der Kampf um Fakten, um vermeintliche Wahrheiten und deren Deutungshoheit tobt im Netz und in deutschen Redaktionen. Verifikation und Faktenchecks bestimmen regelmäßig die nachrichtliche Agenda. Was ist wahr? Was ist gefälscht? Wer profitiert? Die Deutsche Presse-Agentur lädt bundesweit Verifikations-Experten zum ersten Verithon Deutschlands ein.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 174

Presseschau vom 13.5.

Von Erik Meyer 13.5.2019 ist Politikwissenschaftler und arbeitet als freier Journalist und Dozent zur Digitalisierung in Politik, Pop und Erinnerungskultur. Er ist Autor von „Zwischen Partizipation und Plattformisierung: Politische Kommunikation in der digitalen Gesellschaft“ (2019)

Warnung ohne Beleg?

Die EU-Justizkommissarin Vera Jourová meldet sich mit einer eher allgemeinen Warnung zum Versuch manipulativer Einflussnahme zu Wort: "Organisierte Desinformationskampagnen aus dem Ausland zielten darauf ab, existierende Polarisierungen in der Gesellschaft aufzugreifen und zu verstärken, so die Kommissarin. 'Das macht es schwer, sie zu erkennen. Wir erleben ein digitales Wettrüsten. Europa muss sich darauf einstellen.'" tagesschau.de Europawahl: EU-Kommissarin warnt vor Manipulation (https://www.tagesschau.de/ausland/eu- wahl-justizkommissarin-russland-101.html) EU-Justizkommissarin Jourová ist besorgt über eine mögliche Einmischung Russlands in die Europawahl. Die tschechische Politikerin fürchtet gezielte Desinformationskampagnen aus dem Ausland. Knapp zwei Wochen vor der Europawahl hat EU-Justizkommissarin Vera Jourová vor Wahlmanipulation insbesondere durch Russland gewarnt. "Wir dürfen nicht zulassen, dass auch nur in einem Mitgliedstaat die Wahlergebnisse durch Manipulation verfälscht werden.

Betreffende Erkenntnisse werden in einem Bericht der New York Times kolportiert, den Spiegel Online so zusammenfasst: "Ermittlungsbehörden der Europäischen Union hätten Hunderte von Facebook- und Twitter-Accounts gefunden, die Falschinformationen zur Europäischen Union, zu Migration und zur Nato verbreiteten. Ebenso gebe es reichlich Material mit Fakenews, die über WhatsApp weitergereicht würden. So werde etwa zu dem Brand in Notre-Dame behauptet, es handle sich um einen islamistischen Terroranschlag. Vielfach kämen die Falschmeldungen direkt von russischen Staatsmedien."

Spiegel Online Soziale Medien: Russland mischt sich offenbar verstärkt in EU-Wahlkampf ein (https://www. spiegel.de/politik/ausland/russland-mischt-sich-offenbar-vermehrt-in-eu-wahlkampf-ein-a-1267070. html)

Spätestens seit der Brexit-Abstimmung und der Wahl Donald Trumps zum US-Präsidenten steht der Verdacht im Raum, Russland versuche die Wahlkämpfe in anderen Ländern zu manipulieren. Nach Recherchen der " New York Times" gibt es nun auch zwei Wochen vor der EU-Wahl starke Hinweise auf eine versuchte Einflussnahme seitens des Kreml.

Bezugnehmend auf die Berichterstattung der New York Times hält der ehemalige Chief Security Officer von Facebook, Alex Stamos, die Vorgehensweise für kontraproduktiv, den vermuteten Ursprung von Desinformationskampagnen ohne eine transparent nachvollziehbare Beweisführung zu benennen.

(https://twitter.com/alexstamos/status/1127586662911959041)

Eine erste Einordnung der zu Deutschland präsentierten Erkenntnisse liefert die Journalistin und Autorin im Dossier "Digitale Desinformation", Karolin Schwarz in einem Thread:

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 175

(https://twitter.com/raeuberhose/status/1127826330702237697)

Hier noch ein Hintergrund-Beitrag zur Arbeit von Karolin Schwarz mit hilfreichen Hinweisen für die praktische Auseinandersetzung mit digitaler Desinformation:

Meedia Fünf Tipps und Tools von Faktencheckerin Karolin Schwarz, die zeigen, wie man Fake-News im Netz erkennt (https://meedia.de/2019/03/21/fuenf-tipps-und-tools-von-faktencheckerin- karolin-schwarz-die-zeigen-wie-man-fake-news-im-netz-erkennt/) Der Skandal um Ex-Spiegel-Reporter Claas Relotius machte erneut deutlich, wie wichtig gründliche Faktenchecks. Karolin Schwarz ist freie Journalistin und Faktencheckerin - beispielsweise für den Faktenfinder der ARD - und Gründerin von Hoaxmap, ein Portal, auf dem Falschmeldungen u.a. über Geflüchtete zusammengetragen werden. Mit MEEDIA spracht sie über die Praxis des Factchecking im Journalismus und gibt nützliche Tool-Tipps.

Eher zurückhaltend ist die Einschätzung ebenso in einem Podcast des MDR, der sich mit dem Thema "Europawahl – Wie viel Einfluss haben soziale Netzwerke in Sachsen Anhalt?" beschäftigt. Einer der Macher schreibt unter der Zwischenüberschrift "Was hat uns überrascht" dazu: "Dass unsere Experten keinen Alarm schlagen oder sich unendliche Sorgen machen, dass durch Desinformation von Parteien oder ausländischen Trollen die Europawahl beeinflusst und die Europäische Union beschädigt werden soll. Zwar gebe es Beispiele wie die Wahl des US-Präsidenten oder die Brexit-Abstimmung, aber vor allem sei es gut, über die Möglichkeiten der Beeinflussung aufzuklären, sagen sie." mdr.de Folge 15: Europawahl - Wie viel Einfluss haben soziale Netzwerke in Sachsen Anhalt? (https:// www.mdr.de/sachsen-anhalt/podcast-digital-leben-einfluss-soziale-netzwerke-sachsen-anhalt- europawahl100.html) Zur optimalen Darstellung unserer Webseite benötigen Sie Javascript. Bitte aktivieren sie dies in Ihrem Browser. 400 Millionen Menschen können Ende Mai das Europaparlament wählen. 41 Parteien stehen in Deutschland auf den Stimmzetteln. Von Schicksalswahl ist die Rede. Dabei schwingt immer die Sorge mit, dass die Wahl mithilfe der sozialen Netzwerke beeinflusst werden könnte - mit Desinformationskampagnen.

In Italien wurden derweil problematische Facebook-Seiten von der Plattform gelöscht, berichtet das österreichische Netz-Magazin futurezone: "Das Sozialnetzwerk von Mark Zuckerberg hat 23 italienische Facebook-Seiten mit politischen Inhalten und 2,46 Millionen Followers geschlossen. Dabei handelt es sich um Seiten, die die italienischen Regierungsparteien Lega und Fünf Sterne unterstützten, wie italienische Medien am Montag berichteten. Auf den geschlossenen Seiten waren zuletzt wiederholt falsche Informationen über Impfungen und rassistische oder antisemitische Slogans erschienen, berichtete Facebook."

Futurezone Vor EU-Wahl: Facebook schließt 23 Fake-News-Seiten (https://futurezone.at/netzpolitik/vor-eu- wahl-facebook-schliesst-23-fake-news-seiten/400492174) Die Seiten haben Postings mit gefälschten Promi-Zitaten sowie rassistischen und antisemitischen Slogans veröffentlicht.

Ausgehend von den europäischen Verhältnissen wirft John Harris im Guardian einen Blick nach Indien, wo auch gewählt wird, sowie zum dortigen Premierminister und seiner Partei: "But this is as nothing compared with what is afoot in the world’s largest democracy, and a story centred on WhatsApp, the platform Mark Zuckerberg’s company acquired in 2014 for $22bn, whose messages are end-to-end encrypted and thus beyond the reach of would-be moderators. WhatsApp is thought to have more than 300 million Indian users, and though it is central to political campaigning on all sides, it is Modi

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 176 and his supporters who have made the most of it."

The Guardian Is India the frontline in big tech's assault on democracy? | John Harris (https://www.theguardian. com/commentisfree/2019/may/13/big-tech-whatsapp-democracy-india) Encrypted messaging polarises voters and prevents public scrutiny, says Guardian columnist John Harris

Eine erste Untersuchung zu "News and Information over Facebook and WhatsApp during the Indian Election Campaign" liefert ein Forschungprojekt des Oxford Internet Institute: "Comparing the platforms, we find that (3) misinformation on WhatsApp primarily takes the form of visual content, while misinformation on Facebook involves links to sensational, extremist, and conspiratorial news sites and visual content. On a positive note, (4) we observed very limited amounts of hate speech, gore or pornography in either platform samples. Yet in comparison with other recent international elections, (5) the proportion of polarizing political news and information in circulation over social media in India is worse than all of the other country case studies we have analysed, except the US Presidential election in 2016."

The Computational Propaganda Project News and Information over Facebook and WhatsApp during the Indian Election Campaign (https://comprop.oii.ox.ac.uk/research/india-election-memo/) Social media platforms have become an important source of political news and information for voters in India's national election.

Am 15. Mai steht ein Bericht der Bundesregierung zum Thema "Zensurvorfälle bei Twitter" auf der Tagesordnung des Bundestagsausschusses "Digitale Agenda". Von Sperrungen betroffene werden aufgerufen, dazu Angaben zu machen und einschlägige Fragen für Twitter zu formulieren. Hier einige Vorschläge des Social-Media-Experten Luca Hammer:

(https://twitter.com/luca/status/1127560749403070464)

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 177

Presseschau vom 10.5.

Von Erik Meyer 10.5.2019 ist Politikwissenschaftler und arbeitet als freier Journalist und Dozent zur Digitalisierung in Politik, Pop und Erinnerungskultur. Er ist Autor von „Zwischen Partizipation und Plattformisierung: Politische Kommunikation in der digitalen Gesellschaft“ (2019)

Kontroverse Fakten

In Griechenland gibt es Zweifel an einer auch für Facebook tätigen Faktencheck-Organisation, der die Regierung unter anderem Parteilichkeit vorwirft wie Sarantis Michalopoulos berichtet: “We are surprised by technology giant Facebook’s decision to entrust the work of the Guardian of Truth on the Greek Internet news to a company that does not have the same expertise and experience as other Facebook partners such as AFP and Associated Press,” Greek deputy digital minister Lefteris Kretsos told EURACTIV.com." euractiv.com Greece threatens to raise Facebook's fact-checking issue at EU Council (https://www.euractiv. com/section/digital/news/thurs-ready-greece-threatens-to-raise-facebooks-fact-checker-issue- at-eu-council/) The Greek government has lashed out against Facebook, after the social media platform decided to partner with a "controversial" fact-checker in the country. Athens says it is now prepared to raise the issue at an EU level, unless it gets satisfactory answers.

"Angst vor Wahlmanipulation - Wie gefährlich sind soziale Medien?" Dieses Thema wurde gestern in der phoenix runde kontrovers diskutiert. Gäste waren: Konstantin Kuhle (innenpolitischer Sprecher der FDP-Fraktion im Bundestag), Joana Cotar (digitalpolitische Sprecherin der AfD-Fraktion im Bundestag), Alexander Sängerlaub (Stiftung Neue Soziale Verantwortung) und Prof. Wolfgang Krieger (Historiker und Geheimdienstexperte der Universität Marburg). Die Sendung ist als Video verfügbar:

[An dieser Stelle befindet sich ein eingebettetes Objekt, das wir in der PDF-/EPUB-Version nicht ausspielen können. Das Objekt können Sie sich in der Online-Version des Beitrags anschauen: http:// www.bpb.de/gesellschaft/digitales/digitale-desinformation/290927/presseschau-vom-10-5]

Die Manipulation von Wahlen durch soziale Medien will Twitter durch eine Sperr-Politik erschweren. Probleme damit diskutiert Jörg Breithut bei Spiegel Online: "In die Liste der unerwünschten Inhalte fällt auch die Empfehlung, dass man Wahlzettel unterschreiben solle (was die eigene Stimme ungültig macht). In den vergangenen Tagen wurde im Kontext dieses Themas reihenweise Profile von Nutzern gesperrt. Das klingt zunächst konsequent, doch Twitter weist in seinen Regeln auch ausdrücklich darauf hin, dass Parodien und Kommentare zur Wahl erlaubt sind."

Spiegel Online - Netzwelt Ärger um Account-Sperren: Bei Wahlen versteht Twitter keinen Spaß (https://www.spiegel.de/ netzwelt/netzpolitik/twitter-und-seine-account-sperren-bei-wahlwitzen-hoert-der-spass-auf-a-1266633. html) Seit Montag kann Tom Hillenbrand nichts mehr auf Twitter schreiben. Der Kurznachrichtendienst hat den Account des Autors von Romanen wie "Drohnenland" eingefroren. Hillenbrand, der als Redakteur auch für SPIEGEL ONLINE arbeitete, hatte testen wollen, ob Twitter weiter gegen erkennbar ironische Beiträge zum Thema Wahlen vorgeht, obwohl in den vergangenen Tagen immer wieder Patzer mit der Meldefunktion bekannt geworden waren.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 178

Die Historikerin Sophia Rosenfeld macht bei Zeit Online die Fragmentierung von Lebenswelten mitverantwortlich dafür, dass Wahrheiten so umstritten sind: "Am wichtigsten aber ist, dass die EU und ihre Mitgliedsstaaten (wie die USA und der überwiegende Rest der Welt) mehr tun müssen, um die wachsende Ungleichheit der Einkommen und Vermögen zu bekämpfen. Sie hat dazu geführt, dass die Bürger heute in so unterschiedlichen Welten leben, mit so unterschiedlichen Erfahrungen, Ausbildungen und Chancen. Es ist nur schwer vorstellbar, wie sie je dieselben Fakten anerkennen könnten."

Zeit Online Fake-News: Lügen sind Teil der Demokratie (https://www.zeit.de/kultur/2019-05/fake-news- desinformationen-europa-social-media-wahlkampf-postfaktisch/komplettansicht) Wussten Sie schon, dass in Spanien Ausländer, obwohl sie nur zehn Prozent der Bevölkerung ausmachen, die Mehrzahl aller Vergewaltigungen begehen? Oder dass Marokko Spanien zu erpressen versucht hat, nach dem Motto: freie Bildung für Marokkaner, sonst unternehmen wir nichts gegen die illegale Einwanderung?

Die Columbia Journalism Review widmet sich in Zukunft auch dem Thema "The Disinformation War ". Dazu wagt Emily Bell, die Direktorin des Tow Center for Digital Journalism, einen Ausblick: "Fake news, fake accounts, bots, real accounts that look like bots, doxxing, trolling, propaganda, targeted harassment, hidden influence, and the vast umbrella of misinformation have occupied much of our media and political coverage of the past two years. And there is more to come. Artificial intelligence allows for many more automated activities which will reshape communications in a more profound way than even the mobile social web."

Columbia Journalism Review Mapping the battleground for the next information war (https://www.cjr.org/tow_center/ battleground-information-war.php) In 1970, the Canadian cultural theorist Marshall McLuhan famously predicted that World War III, when it comes, will be "a guerrilla information war with no division between military and civilian participation "-a war waged in cyberspace, not on a defined battlefield. His prediction resonates with anyone trying to make sense of our opaque information environment, especially [...]

Was tut YouTube gegen desinformierende Videos? Es will glaubwürdige Quellen auf der Plattform stärken, schreibt Stephan Mündges in einem Beitrag für das ZDF: "Dafür hat das Unternehmen drei Maßnahmen ergriffen: Wenn ein Nutzer aktiv nach Nachrichtenthemen sucht, wird er automatisch auf eine sogenannte Top News-Seite gelenkt, auf der nur Ergebnisse von Qualitätsmedien angezeigt werden sollen. In Breaking News-Situationen will YouTube auf der Startseite zukünftig nur noch Videos von verifizierten Quellen anzeigen. Und bei Themen, über die häufig Verschwörungstheorien verbreitet werden, werden seit kurzem kleine Informationsboxen unterhalb der Videos angezeigt."

ZDFcheck19: Radikalisierungsmaschine YouTube? (https://www.zdf.de/nachrichten/heute/radikalisierungsmaschine- youtube-europawahl-zdfcheck-100.html#xtor=CS5-4) Katzenvideos, Pranks und How-to-Videos: dafür ist YouTube bekannt. Aber die Plattform hat auch dunkle Ecken. Gegen die soll YouTube vorgehen, fordern Wissenschaftler und Politiker. Wenn über Falschinformationen und Desinformationskampagnen gesprochen und geschrieben wird, steht meistens eine Plattform im Mittelpunkt: Facebook. Dabei wird häufig vergessen, dass auch YouTube weltweit Milliarden Nutzer hat.

Die Distribution von digitaler Desinformation zahlt sich für viele Akteure auch noch aus. Die britische Initiative Global Disinformation Index hat dazu einen Report veröffentlicht: "A system developed to help advertisers reach their audiences more effectively is being abused for money by those who want

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 179 to disinform. This is not just the clickbait factories and 'fake news merchants' that we all have read about. This includes other 'news' domains higher up the food chain."

(https://twitter.com/DisinfoIndex/status/1126504687644004354)

Daniel Funke problematisiert bei Poynter das Phänomen, dass falsche Zitate im Netz langlebiger und reichweitenstärker sind als ihre Richtigstellung: "On social media, fake quotes have long been one of the most popular types of misinformation. Many of them are 'zombie claims,' meaning they live on for months or years after fact-checkers debunk them. They often target politicians, public figures or individuals who are for some reason controversial."

Poynter These bogus quotes just won't die on Facebook (https://www.poynter.org/fact-checking/2019/ these-bogus-quotes-just-wont-die-on-facebook/) A falsely attributed quote that originated in chain emails is now reaching hundreds of thousands of people on Facebook. The quote asserts that an immigrant should be "willing to become a Canadian a...

Instagram reagiert auf die Kritik an der Verbreitung irreführender Inhalte zu Impfungen auf der Plattform und kündigt verschiedene Maßnahmen dagegen an. Casey Newton berichtet für das Online-Magazin The Verge: "Instagram also plans to introduce a pop-up message for people searching for vaccine information linking them to high-quality information about the subject. It has not yet finalized the wording of the message but hopes to introduce it soon, the company said. Instagram said the work to remove anti-vaccination information from the platform was in its early stages, and that people would likely continue to find anti-vaccination propaganda on the service for some time."

The Verge Instagram will begin blocking hashtags that return anti-vaccination misinformation (https:// www.theverge.com/2019/5/9/18553821/instagram-anti-vax-vaccines-hashtag-blocking-misinformation- hoaxes) Instagram will begin hiding search results for hashtags that consistently return false information about vaccines, the company said today. Starting today, the company will effectively begin blocking access to hashtags that return misinformation designed to dissuade people from getting vaccinated. Instagram made the announcement at an event for press in San Francisco on Thursday.

Einen ausführlichen Faktencheck hat Darius Reinhardt aus der Community-Redaktion des Recherchezentrums Correctiv zu zukünftigen Leistungen für Asylbewerber verfasst. Überprüft wird eine Behauptung zur Erhöhung betreffender Bargeldleistungen. Der Autor kommt zum Schluss, dass die von ihm untersuchte Darstellung problematisch pauschalisiert: correctiv.org Nein, nach der Reform des Asylbewerberleistungsgesetzes sollen Asylbewerber nicht pauschal 11 Prozent mehr Bargeldleistungen erhalten (https://correctiv.org/checkjetzt/2019/05/09/nein- nach-der-reform-des-asylbewerberleistungsgesetzes-sollen-asylbewerber-nicht-pauschal-11-prozent- mehr-bargeldleistungen-erhalten) In diesem Faktencheck geht es um folgende Behauptung: Ab 2020 würden die Bargeldleistungen an Asylbewerber „auf einen Schlag" und „um 11% oder 15 Euro" steigen. Das Ergebnis unseres Faktenchecks: Die Behauptung ist: Größtenteils falsch. Worum geht es? In einem Facebook-Post des Deutschland Kurier vom 11.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 180

Presseschau vom 9.5.

Von Erik Meyer 9.5.2019 ist Politikwissenschaftler und arbeitet als freier Journalist und Dozent zur Digitalisierung in Politik, Pop und Erinnerungskultur. Er ist Autor von „Zwischen Partizipation und Plattformisierung: Politische Kommunikation in der digitalen Gesellschaft“ (2019)

Digitalisierte Öffentlichkeiten

Die Sperrung von Twitter-Profilen unter Bezugnahme auf die "Richtlinie zur Integrität von Wahlen" der Plattform sorgt weiter für Kontroversen. Ein Betroffener, der wieder entsperrt wurde, kritisiert das Overblocking scharf:

(https://twitter.com/RAStadler/status/1126169212592979969)

Unterdessen wird die Dokumentation von Fällen intendiert, um eine Überprüfung der Angemessenheit zu veranlassen. (https://twitter.com/ArnoldSchiller/status/1126139878520098818)

Facebook sah bislang vor, dass politische Werbung zur Europawahl nur von Akteuren in Ländern geschaltet werden darf, in denen sie ansässig sind. Damit sollen Interventionen aus dem Ausland verhindert werden. Allerdings verhinderte dies auch etwa Kampagnen der EU selbst zur Mobilisierung von Wählern in anderen Ländern als in Belgien. Laura Kayali berichtet für Politico, dass nun Ausnahmen für paneuropäische Akteure gelten: "The company has now granted and implemented temporary exemptions for the main Facebook pages of the European Parliament, European political groups and European political parties. The exemptions apply to about 40 Facebook pages, including those of the European People's Party, the Progressive Alliance of Socialists and Democrats and the Alliance of Liberals and Democrats for Europe. They are applicable as of Wednesday until the end of the election, on May 26."

POLITICO Facebook allows EU-wide political ads for European Parliament (https://www.politico.eu/article/ facebook-allows-eu-wide-political-ads-for-european-parliament/) Facebook has implemented measures allowing the European Parliament and European political groups to buy political advertising throughout the EU, the company told POLITICO on Wednesday. "After a request from the European Parliament, we have agreed to exempt a number of pages of official EU bodies from these rules until the elections at the end of the month," a spokesperson for the company said.

Zum Motto der re:publica gab es eine Sendung beim Bayrischen Rundfunk. "Zu Gast bei Moderatorin Christine Krueger im Tagesgespräch-Studio war Prof. Christoph Neuberger vom Institut für Kommunikationswissenschaft und Medienforschung an der LMU München. Außerdem hat sich Tania Röttger zu Wort gemeldet. Sie ist Leiterin von 'CORRECTIV.Faktencheck'." br.de Zwischen Fake und News: Sind soziale Medien zur politischen Meinungsbildung geeignet? (https://www.br.de/radio/bayern2/zwischen-fake-und-news-meinungsbildung-102.html) tl;dr - dieses Kürzel ist das Motto der Digitalkonferenz re:publica 2019, die gerade in Berlin läuft. Die Abkürzung steht für "Too long; didn't read", übersetzt: "Zu lang, nicht gelesen." Ein Phänomen, das die re:publica hinterfragen will: "Wenn Verkürzungen zu simplen Parolen und Slogans werden, die

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 181 missbraucht werden, um die Gesellschaft zu spalten und demokratische Systeme zu zerstören, müssen wir mit Wissen und Information, mit Empathie, Dialog und Solidarität dagegen halten."

Zu den einschlägigen Debatten auf der re:publica resümieren Maria Fiedler und Sebastian Christ im Tagesspiegel: "Großen Konsens bei der re:publica gibt es bei der Frage, wie die digitale Gesellschaft in Zukunft mit Plattformanbietern wie Facebook und Google umgehen sollte: Mit strengeren Gesetzen müsse in sozialen Netzwerken gegen Microtargeting, Wahlmanipulationen und Meinungsmache vorgegangen werden. Selbst Facebooks Public Policy Manager Semjon Rens fordert eine Debatte über datenbasierte Wahlwerbung."

Tagesspiegel.de Sieben Lehren aus der re:publica (https://www.tagesspiegel.de/kultur/kommunikation-im-netz- sieben-lehren-aus-der-re-publica/24319442.html) Einfache Antworten, das wird früh klar, gibt es auch in diesem Jahr nicht. Da berichten am ersten Tag die Journalisten Patrick Stegemann und Sören Musyal über rechte Influencer, die sich selbst zu Popstars stilisieren und versuchen, den Diskurs nach rechts zu verschieben. Der Saal ist voll besetzt, einige Besucher sitzen auf dem Fußboden.

Nach der re:publica geht es heute mit der Jahrestagung der Deutschen Gesellschaft für Publizistik- und Kommunikationswissenschaft zur "Integration durch Kommunikation in digitalisierten Öffentlichkeiten". Dort werden auch Aspekte angesprochen, die für das Verständnis digitaler Desinformation grundlegend sind wie beispielsweise folgende:

(https://twitter.com/kuempelanna/status/1126351281411502080) Einen Podcast zur Frage "Fake-News: Gefahr für die Europawahl 2019?" liefert das Hans-Bredow- Institut: "Wie kann die demokratische Gesellschaft vor möglicherweise folgenschweren Lügen oder Halbwahrheiten geschützt werden ohne die Meinungsäußerungsfreiheit zu verlieren? Der Medienrechtsexperte Mag. Dr. Matthias Kettemann erzählt von der Schwierigkeit, eine Lüge im Netz als solche zu erkennen und von den Möglichkeiten und Grenzen der Justiz im Kampf gehen Desinformation."

Leibniz-hbi Hans-Bredow-Institut - Hans-Bredow-Institut für Medienforschung (https://www.leibniz-hbi.de/ de/aktuelles/fake-news-gefahr-fuer-die-europawahl-2019) Das Hans-Bredow-Institut erforscht den Medienwandel und die damit verbundenen strukturellen Veränderungen öffentlicher Kommunikation. Medienübergreifend, interdisziplinär und unabhängig verbindet es Grundlagenwissenschaft und Transferforschung und schafft so problemrelevantes Wissen für Politik, Wirtschaft und Zivilgesellschaft.

Neben politischer Desinformation spielen auch irreführende Inhalte zum Thema "Gesundheit" eine Rolle. In letzter Zeit sind einige Plattformen gegen die Verbreitung von Fehlinformationen zu Impfungen vorgegangen. Doch bei Instagram sind problematische Profile in den Suchergebnissen zu diesem Thema weiterhin prominent platziert wie Kaya Yurieff für CNN berichtet: "Two months after Facebook pledged to fight vaccine misinformation on its platforms, and in the midst of a measles outbreak in New York City, Instagram is still serving up posts from anti-vaccination accounts and anti-vaccination hashtags to anyone searching for the word 'vaccines.'"

CNN Instagram still doesn't have vaccine misinformation under control (https://edition.cnn. com/2019/05/08/tech/instagram-vaccine-misinformation/index.html) Two months after Facebook pledged to fight vaccine misinformation on its platforms, Instagram is still serving up posts from anti-vaccination accounts.

In den USA hat die Organisation Avaaz Treffen von Vertretern der Plattformen mit Menschen organisiert,

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 182 die sich als Opfer von Desinformation verstehen, berichtet Issie Lapowsky für Wired: "Avaaz's organizers also hoped to meet with executives from Google, whose video platform YouTube has helped promote some of the internet's worst conspiracies. As of Wednesday afternoon, a meeting with Google had not yet been scheduled. In addition to giving the group a chance to share their stories, Avaaz also encouraged Facebook and Twitter to adopt a policy that would alert people when they've been exposed to information marked false by third-party fact-checkers."

WIRED 'Fake News Victims' Meet With Twitter and Facebook (https://www.wired.com/story/fake-news- victims-meet-twitter-facebook/) On paper, they would seem to have little in common. Tun Khin is a human rights activist who advocates for the persecuted Rohingya Muslims in his home country of Myanmar. Jessikka Aro is a Finnish journalist who exposed the Russian propagandists at the Internet Research Agency long before the rest of the world had ever heard of them.

Gleichzeitig warnt etwa die Organisation "Reporter ohne Grenzen" vor fragwürdigen Regulierungen, die die Pressefreiheit einschränken: "Demnach müssen klassische Medien ebenso wie Internet- Konzerne künftig nach staatlicher Aufforderung Artikel entfernen. Unter bestimmten Umständen sollen sie auch Berichtigungshinweise veröffentlichen." (https://twitter.com/ReporterOG/status/1126402773963157504)

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 183

Presseschau vom 8.5.

Von Erik Meyer 8.5.2019 ist Politikwissenschaftler und arbeitet als freier Journalist und Dozent zur Digitalisierung in Politik, Pop und Erinnerungskultur. Er ist Autor von „Zwischen Partizipation und Plattformisierung: Politische Kommunikation in der digitalen Gesellschaft“ (2019)

Entlarven oder ignorieren?

Tagesschau.de berichtet über eine bedenkliche Dimension der Distribution digitaler Desinformation: "Eine Untersuchung der Social-Media-Analysefirma Alto in Zusammenarbeit mit Reportern von NDR und WDR hat ergeben, dass unter den am häufigsten geteilten Webseiten im Zusammenhang mit politischen Diskussionen im Internet zahlreiche Portale auftauchen, die tendenziös berichten und zum Teil offen Falschnachrichten verbreiten. Diese Webseiten werden teilweise deutlich häufiger verbreitet als klassische Nachrichtenseiten großer Medienhäuser." tagesschau.de: Rechte Portale im Netz - Abkehr vom klassischen Journalismus? (http://Rechte Portale im Netz Abkehr vom klassischen Journalismus?) "Rechte Portale, die zum Teil gezielt Falschmeldung verbreiten, sind in den Sozialen Medien besonders erfolgreich. Experten befürchten, dass ein Teil der Bevölkerung sich vom klassischen Journalismus abwendet. Von N. Altland, P. Eckstein, L. Kampf, E. Kuch und J. Strozyk, NDR/WDR Rechte Gruppen schaffen sich im Netz zunehmend eine eigene publizistische Öffentlichkeit, indem sie journalistisch fragwürdige Blogs und Portale massenhaft verbreiten."

Diese Erkenntnisse dürften auch Gegenstand einer Diskussionsrunde sein, die heute um 15.00 Uhr auf der Digitalkonferenz re:publica stattfindet: re:publica 2019 Entlarven oder ignorieren - was müssen die Öffentlich-Rechtlichen gegen Fake News tun? re:publica 2019 (https://19.re-publica.com/de/session/entlarven-oder-ignorieren-was-mussen- offentlich-rechtlichen-gegen-fake-news-tun) Mit Journalist*innen aus Deutschland , der Korrespondentin Ina Ruck aus Moskau und Euch wollen wir darüber diskutieren, was die Öffentlich-Rechtlichen gegen Fake News tun müssen.

Auch in Indien wird aktuell gewählt. Marie Ludwig liefert für die Rheinische Post eine Reportage unter anderem darüber wie dort mit Falschmeldungen umgegangen wird: "Viele Medienunternehmen weltweit berichten bewusst nicht über Fake News, um deren Verbreitung nicht zu fördern. 'Boom' geht einen anderen Weg: In einer TV-Sendung, die sich 'Fact versus Fiction' nennt, informiert das Medienunternehmen täglich live über soziale Medien wie Facebook und die Video-App Periscope über aktuelle Desinformationen."

RP ONLINE Parlamentswahl : Fake News für 900 Millionen Wähler" (https://rp-online.de/politik/ausland/ fake-news-fuer-900-millionen-indische-waehler_aid-38605857) Derzeit findet in Indien die größte Wahl der Welt statt. Doch die Abstimmung wird von einer Flut von Desinformation überrollt. 36 Muslime sollen zwischen Mai 2015 und Dezember 2018 zum Opfer von hinduistischen Lynchmorden geworden sein. So heißt es in einem Bericht der Menschenrechtsorganisation Human Rights Watch.

Ganz im Sinne des diesjährigen re:publica-Mottos "too long; didn’t read" befasst sich ein kurzes

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 184

Interview, das Justus Kliss vom ARD-Hauptstadtstudio mit einem Experten geführt hat, mit manipulativen Inhalten auf Plattformen:

(https://twitter.com/ARD_BaB/status/1125688072702713856)

Länger hat der Deutschlandfunk auf der re:prublica mit SPD-Generalsekretär , Journalistin Karolin Schwarz und Luca Hammer unter anderem über die Rolle digitaler Desinformation bei Wahlen diskutiert: "Eine der wichtigsten Fragen im Kampf gegen Desinformation ist laut Klingbeil, wie man Filterblasen im Netz aufbrechen könne: 'Eigentlich müsste man Facebook zwingen, das man auch mal unterschiedliche Meinungen in der Timeline findet'. Social-Media-Analyst Luca Hammer sieht hier jedoch ein Problem bei der Definition von Diversität in der Timeline."

Deutschlandfunk: Werden die Europawahlen im Netz entschieden? (https://www.deutschlandfunk.de/re- publica-2019-werden-die-europawahlen-im-netz-entschieden.2907.de.html?dram:article_id=448097)

Über soziale Medien lassen sich politische Botschaften, aber auch Desinformation und Propaganda schnell verbreiten. Inwiefern könnte das die Europawahlen gefährden? Auf der re:publica diskutierte @mediasres mit SPD-Generalsekretär Lars Klingbeil, Journalistin Karolin Schwarz und Social-Media- Analyst Luca Hammer.

Für das Online-Projekt Coda porträtiert Filip Brokeš den populistischen tschechischen Politiker Tomio Okamura: "Critics say Okamura and his party’s success over a few short years has been supercharged by a carefully crafted media strategy of marginalizing the country’s mainstream media in favor of his own social media channels that amplify fake news, including a strong anti-Brussels message."

(https://twitter.com/CodaStory/status/1125759927585263617)

Mark Scott berichtet für Politico über einen aktuellen Report der US-Firma SafeGuard Cyber:"With the bloc-wide election on May 23-26, researchers found a vast network of automated social media accounts, allegedly controlled by Russian actors, that foment extremist views by amplifying content produced by the hard-right , as well as various supporters of the United Kingdom leaving the EU. The goal of such efforts, according to the analysis, is to amplify divisive issues in European countries to undermine democratic institutions and create domestic tensions in a way that ultimately favors the Russian state."

(https://twitter.com/POLITICOEurope/status/1125867929415880705)

Die Europäische Union verfolgt im Kampf gegen Desinformation einen Aktionsplan und unterhält dazu auch ein eigenes Online-Angebot. Die Braunschweiger Zeitung hat dazu Experten befragt: "André Haller von der Universität Bamberg findet zwar gute Ansätze im Aktionsplan. Insbesondere der Druck auf Facebook habe wohl gewirkt. Er bemängelt jedoch, wie euvsdisinfo.eu ihre Arbeit tut. Zumindest ein Teil der von EU-Seite dort verfassten Texte, die oft russische Propaganda widerlegen sollen, sei keine Aufklärung im besten Sinne. 'Das ist teilweise Regierungs-PR.'

Braunschweigerzeitung Google, Facebook und Co gehen verstärkt gegen Fake News vor (https://www.braunschweiger- zeitung.de/politik/article217118373/Google-Facebook-und-Co-gehen-verstaerkt-gegen-Fake-News- vor.html) Kurz vor der Europawahl Ende Mai verstärkt sich die Debatte über Desinformation im Internet. Guter Journalismus sei die Antwort auf Desinformationskampagnen im Netz, sagte Isabelle Sonnenfeld von Google News Lab für Deutschland am Dienstag in Berlin. Google wiederum wolle die Nutzer durch Hinweise darauf sensibilisieren, dass die Informationen womöglich falsch oder Zitate frei erfunden seien.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 185

Die Einschätzung von Quellen und Förderung von Medienkompetenz ist Gegenstand von Materialien, die das Niedersächsische Kultusministerium zum Download anbietet:

Niedersächsischer Bildungsserver Unterrichtseinheiten des Niedersächsischen Kultusministeriums zu Fake News und Social Bots im digitalen Zeitalter (https://www.nibis.de/unterrichtseinheiten-des-niedersaechsischen- kultusministeriums-zu-fake-news-und-social-bots-im-digitalen-zeitalter_9892) Fake News, also Fehl- und Desinformationen sind kein neues Phänomen. Falsche Informationen wurden bereits zu früheren Zeiten verwendet, beispielsweise im Krieg zu Propagandazwecken. Heute können Fake News aber mithilfe des Internets leichter verbreitet werden und somit viel mehr Menschen erreichen. Scherznachrichten, Horrormeldungen, betrügerische Nachrichten, Beeinflussung etc.

Gestern trafen in der ARD-Sendung "Wahlarena" die Spitzenkandidaten der Sozialdemokratischen Partei Europas, Frans Timmermans und der Europäischen Volkspartei, Manfred Weber, aufeinander. Folgende Aussage wurde vom WDR-Format "Wahlwatch" geprüft und für wahr befunden:

(https://twitter.com/aktuelle_stunde/status/1125989308861644800)

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 186

Presseschau vom 7.5.

Von Erik Meyer 7.5.2019 ist Politikwissenschaftler und arbeitet als freier Journalist und Dozent zur Digitalisierung in Politik, Pop und Erinnerungskultur. Er ist Autor von „Zwischen Partizipation und Plattformisierung: Politische Kommunikation in der digitalen Gesellschaft“ (2019)

Illegitime Kommunikation und Overblocking

Hier ein weiteres Beispiel für eine aktuell kursierende Fälschung im Zusammenhang mit Wahlplakaten, die die Faktenprüfer vom Recherchezentrum Correctiv verifiziert haben:

(https://twitter.com/correctiv_fakt/status/1125415341759324160)

Testweise wird Instagram in das Programm für Faktenchecks von Facebook integriert. Daniel Funke hat dazu mit Stephanie Otway, einer Sprecherin der Plattform, ein Interview geführt: "Starting this week, Instagram is sending potentially false posts to the same dashboard that Facebook’s fact-checking partners use to sift through misinformation, Otway said. That way, fact-checkers will have the chance to select, debunk and thereby limit the spread of Instagram-specific hoaxes without changing their workflows."

Poynter Instagram is reducing the reach of posts debunked by fact-checkers (https://www.poynter.org/ fact-checking/2019/instagram-is-reducing-the-reach-of-posts-debunked-by-fact-checkers/) In an expansion of Facebook's partnership with fact-checking sites around the world, Instagram has started reducing the reach of false posts. When one of Facebook's fact-checking partners, of which...

Im Blog zu einem europäischen Faktencheck-Projekt wird eine Pressekonferenz zum Thema "Desinformation vor der Europawahl – Wie groß ist die Gefahr?" zusammengefasst: "Bots, advertising campaigns, social media platforms and human-controlled accounts posting memes are possible attack platforms. The focus is on the roles of European institutions, issues such as migration, cultural change or financial issues. The instigation of confusion or disagreement is not only a preliminary stage, but also the target of the manipulators."

(https://twitter.com/EUfactcheckEU/status/1125402742133022726)

Welche unterschiedlichen Varianten von Falschmeldungen kursieren generell im Netz? Darauf gibt eine Infografik der Medienkompetenz-Initiative Klickwinkel Auskunft:

(https://twitter.com/fiete_stegers/status/1125414117873979393)

Die Organisation macht auch Weiterbildungsangebote:

(https://www.facebook.com/klickwinkel.digitalerblick/photos/a.2170871366534676/2416065622015248/? type=3)

Stefan Krempl berichtet über eine Diskussion bei der Digitalkonferenz re:publica. Dort bewertete Simon Hegelich, Professor für politische Datenwissenschaft an der Hochschule für Politik München, die Situation in Deutschland zurückhaltend was die Adressierung von Zielggruppen mit Anzeigen auf Plattformen wie Facebook angeht: "Für gezieltes Microtargeting, das auf besondere Vorlieben der

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 187

Nutzer anspringt, gebe es hierzulande zudem 'relativ wenig Hinweise', führte der Datenforscher aus. Anzeigen würden zwar auf große demografische Kategorien zugeschnitten, also etwa auf Männer oder Frauen und eventuell noch das Bildungsniveau. Es würden aber nicht gezielt Leute angesprochen, die Coca-Cola und nicht Pepsi kauften." heise online Datenforscher: Wir kriegen eine Politik, die zum Algorithmus von Facebook passt (https://www. heise.de/newsticker/meldung/Datenforscher-Wir-kriegen-eine-Politik-die-zum-Algorithmus-von- Facebook-passt-4415215.html) Simon Hegelich, Professor für politische Datenwissenschaft an der Hochschule für Politik München, hat die bisherigen Schritte Facebooks im Kampf gegen Desinformation in Wahlkämpfen als gut, aber unzureichend bezeichnet. Dass der Betreiber des sozialen Netzwerk nun etwa eine Anzeigenbibliothek mit Informationen über Auftraggeber veröffentliche, sei eine "Rettungsaktion" nach der Cambridge- Analytica-Affäre gewesen, "um aus der Schusslinie zu kommen", erklärte er am Montag auf der re: publica in Berlin.

Auch heute gibt es auf der re:publica wieder einschlägige Vorträge. Etwa zu automatisierten und anderen problematischen Profilen auf Plattformen: "Die Erstellung gefälschter oder irreführender Accounts verstößt gegen die Nutzungsregeln von Twitter und Facebook. Online-Diskussionen – gemessen an Likes, Shares und Trends – können durch sie manipuliert werden. In diesem Sinne betreiben sowohl Trolle als auch Social Bots illegitime Kommunikation, die das Bild der öffentlichen Meinung verzerren können. Der Begriff 'illegitime Kommunikation' erleichtert es, relevante Konzepte wie Meinungs- und Informationsfreiheit, Kennzeichnungspflichten bzw. die Manipulation der Öffentlichkeit umfassender zu diskutieren."

(https://twitter.com/JWI_Berlin/status/1125399287410647041)

Einen aktuellen Fall illegitimer Kommunikation meldet Facebook: "We removed 97 Facebook accounts, Pages and Groups that were involved in coordinated inauthentic behavior as part of a network emanating from Russia that focused on Ukraine. The individuals behind this activity operated fake accounts to run Pages and Groups, disseminate their content, and increase engagement, and also to drive people to an off-platform domain that aggregated various web content. They frequently posted about local and political news including topics like the military conflict in Eastern Ukraine, Russian politics, political news in Europe, politics in Ukraine and the Syrian civil war."

(https://twitter.com/FantaAlexx/status/1125664322846429184)

Die taz greift die Sperrung von Twitter-Profilen unter Bezugnahme auf eine "Richtlinie zur Integrität von Wahlen" auf und interviewt Karolin Schwarz, eine Autorin des Dossiers "Digitale Desinformation": "Meiner Meinung nach ist es ein klassischer Fall von 'gut gemeint, aber nicht gut umgesetzt.' Das zeigt sich allein an dem Overblocking, das jetzt schon passiert. Zudem fehlen eindeutig Informationen über die Vorgänge von Twitter, also beispielsweise, wer die Meldeverfahren moderiert." taz.de Expertin über Overblocking bei Twitter: „Gut gemeint, schlecht umgesetzt" (http://taz.de/ Expertin-ueber-Overblocking-bei-Twitter/!5593230/) Expertin über Overblocking bei Twitter Weil es gegen Desinformation vorgehen will, sperrt Twitter unschuldige Accounts, wie den von Sawsan Chebli. Karolin Schwarz über das, was da schiefläuft. taz: Frau Schwarz, am Sonntag wurde der Twitter-Account der Berliner Staatssekretärin Sawsan Chebli (SPD) über einige Stunden hinweg gesperrt.

Auch Tagesschau.de behandelt dieses Thema. Patrick Gensing und Konstantin Kumpfmüller resümieren: "Das Grundproblem bleibt bestehen, dass private Unternehmen ohne jede Transparenz über zentrale Fragen von demokratischen Gesellschaften entscheiden - beispielsweise über die

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 188

Grenzen der Meinungsfreiheit. Die digitale Öffentlichkeit diskutiert fast komplett auf den Plattformen von Konzernen - und dementsprechend geben diese durch ihre Algorithmen und Moderationsvorgaben auch den Rahmen vor und definieren, was erlaubt ist und was nicht." tagesschau.de Viel Kritik an neuer Twitter-Meldefunktion (http://www.tagesschau.de/faktenfinder/twitter- meldefunktion-101.html) Um irreführende Angaben zum Ablauf der Europawahl zu unterbinden, hat Twitter eine neue Meldefunktion aktiviert. Diese sorgt für Kritik, da Konten aus umstrittenen Gründen gesperrt wurden. Von Patrick Gensing und Konstantin Kumpfmüller, ARD-faktenfinder Vor der Europawahl wächst der Druck auf die sozialen Netzwerke. Vor allem Facebook und Twitter stehen unter öffentlichen Beobachtung.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 189

Presseschau vom 6.5.

Von Erik Meyer 8.5.2019 ist Politikwissenschaftler und arbeitet als freier Journalist und Dozent zur Digitalisierung in Politik, Pop und Erinnerungskultur. Er ist Autor von „Zwischen Partizipation und Plattformisierung: Politische Kommunikation in der digitalen Gesellschaft“ (2019)

Plattformen - löschen, sperren, regulieren

#Wahlwatch, der Faktencheck des WDR zur Europawahl, hat eine Aussage von SPD- Spitzenkandidatin geprüft und für "halbwahr" befunden:

(https://twitter.com/aktuelle_stunde/status/1125264453946281984)

Justizministerin Barley war auch zu Gast in der ARD-Sendung „Bericht aus Berlin“, die sich in der aktuellen Ausgabe ausführlich mit der Frage nach digitaler Desinformation und der Regulierung der Plattformen auseinandersetzt. Hier ist das Video verfügbar:

Erstes Deutsches Fernsehen (ARD) Bericht aus Berlin (https://www.daserste.de/information/nachrichten-wetter/bericht-aus-berlin/ videosextern/bericht-aus-berlin-2350.html) Themen der Sendung: Willkommen beim Bericht aus Berlin, dem Magazin zur Bundespolitik - immer sonntags 18.30 Uhr aus dem ARD-Hauptstadtstudio.

Patrick Beuth berichtet für Spiegel Online ebenfalls von dort, wo Facebook Interventionsversuche auf der Plattform bei der Europawahl bekämpft: "Nathaniel Gleicher, der bei Facebook den Bereich Cybersecurity-Policy verantwortet, sagt: 'Die Mehrheit dessen, was wir löschen, ist nicht eindeutig faktisch falsch oder verstößt inhaltlich gegen unsere Nutzungsbedingungen'. Das hat seinen Grund, denn Desinformation funktioniert nicht mit glasklaren Lügen, sondern mit extremen Zuspitzungen, Auslassungen und anderen Formen der Verzerrung."

(https://twitter.com/PatrickBeuth/status/1125078579379752960)

Heute beginnt in Berlin die Digitalkonferenz re:publica. Auch in diesem Kontext wird das Thema " Medien, Manipulation und Microtargeting: Wie Social Media den Wahlkampf mit politischer Werbung dominiert" unter anderem mit einem Vertreter von Facebook diskutiert.

(https://twitter.com/FacebookDE/status/1125292210394685440)

Um 19.45 Uhr gibt es dann einen Einblick in die Distribution von Falschmeldungen: "Wir haben im Rahmen unserer Abschlussarbeit gemeinsam untersucht, wie Websites, die regelmässig Desinformation im Internet verbreiten, miteinander verbunden sind. Dazu haben wir im Anschluss an das DORIAN-Projekt der Hochschule der Medien Stuttgart und des Fraunhofer Instituts für Sichere Informationstechnologie SIT die Hyperlinkverbindungen von mehr als 60.000 Artikel von 23 verschiedenen Websites analysiert." re:publica 2019 "Fake News"-Netzwerke - wer verbreitet Desinformation in Deutschland? (https://19.re-publica. com/de/session/fake-news-netzwerke-wer-verbreitet-desinformation-deutschland) Elena ist Journalistin und Immanuel ist Programmierer - zusammen haben wir untersucht, wie die

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 190

Szene der Desinformationsverbreiter in Deutschland aussieht. Wir haben 23 Websites untersucht, die regelmässig sogenannte "Fake News"-Meldungen verbreiten. Mithilfe von Data Mining und einer sozialen Netzwerkanalyse konnten wir wichtige Player, die mit ihren Artikeln ordentlich Stimmung machen, identifizieren.

Eine Möglichkeit im Kampf gegen manipulative Inhalte in soziale Medien ist die Löschung der Profile dafür verantwortlicher Akteure. In den USA hat Facebook gerade einige extreme Aktivisten, die unter anderem Hetze und Verschwörungen verbreitet haben, von der Plattform verbannt. Dagegen beschwert sich wiederum Donald Trump via Twitter, was David Frum vom US-Magazin "The Atlantic" kommentiert: "After Facebook on Friday banned far-right figures and organizations from their platform, including the site Infowars, the president threatened to 'monitor' social-media sites in retaliation. Through much of the late evening of May 3 and early morning of May 4, the president used his Twitter feed to champion the people who earn a large living spreading false reports."

The Atlantic Trump Attacks Facebook on Behalf of Racists and Grifters (https://www.theatlantic.com/ideas/ archive/2019/05/facebook-will-ignore-trumps-criticism/588745/) One thing at least will follow from the president's Twitter campaign: It will become even more difficult than before for the shamefaced remains of what used to be mainstream conservatism to separate themselves from these grifters, racists, and liars. According to the president, they are now martyrs, saying things that deserve to be heard.

"Der Kurznachrichtendienst Twitter hat mehrere Nutzer in Deutschland aufgrund einer neuen 'Richtlinie zur Integrität von Wahlen' vorübergehend gesperrt. Mit diesen internen Vorgaben will Twitter verhindern, dass mit Hilfe des Dienstes Wahlen manipuliert oder beeinträchtigt werden. Nutzer können Tweets melden, die 'irreführend in Bezug auf Wahlen sind'", berichtet Friedhelm Greis bei golem.de.

Golem.de Neue Vorgaben: Twitter sperrt erste Accounts wegen Wahlwitzen (https://www.golem.de/news/ neue-vorgaben-twitter-sperrt-erste-accounts-wegen-wahlwitzen-1905-141043.html) Der Kurznachrichtendienst Twitter hat mehrere Nutzer in Deutschland aufgrund einer neuen "Richtlinie zur Integrität von Wahlen" vorübergehend gesperrt. Mit diesen internen Vorgaben will Twitter verhindern, dass mit Hilfe des Dienstes Wahlen manipuliert oder beeinträchtigt werden. Nutzer können Tweets melden, die "irreführend in Bezug auf Wahlen sind".

In der Richtlinie heißt es weiter: twitter.com (https://help.twitter.com/de/rules-and-policies/election-integrity-policy) April 2019 Es ist nicht erlaubt, die Dienste von Twitter mit dem Ziel zu nutzen, Wahlen zu manipulieren oder zu beeinträchtigen. Darunter fällt das Posten oder Teilen von Inhalten, die sich negativ auf die Wahlbeteiligung auswirken oder falsche Angaben zum Termin, zum Ort, oder zum Ablauf einer Wahl machen.

Auch eine prominente SPD-Politikerin, die Berliner Staatssekretärin Sawsan Chebli, wurde gesperrt, berichtet Spiegel Online: "Eine Veröffentlichung von ihr, in der es um den Vornamen Mohammed ging, wurde als Verstoß gegen die Regeln der Internet-Plattform gewertet. Das geht aus einem Screenshot hervor, der der Nachrichtenagentur dpa vorliegt. Das Unternehmen schrieb an die SPD-Politikerin:

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 191

'Wir sind zu dem Schluss gekommen, dass dieser Tweet gegen die Twitter Regeln verstößt, insbesondere: Verstoß gegen unsere Regeln zum Veröffentlichen von irreführenden Informationen zu Wahlen.'"

(https://twitter.com/SPIEGEL_Netz/status/1125053175621242885)

Dies sorgte bei vielen anderen Nutzern wie auch dem SPD-Generalsekretär für Unverständnis. Am Sonntag-Nachmittag war dann der Tweet wieder verfügbar und das Profil entsperrt.

(https://twitter.com/larsklingbeil/status/1125037778994192385)

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 192

Presseschau vom 3.5.

Von Erik Meyer 3.5.2019 ist Politikwissenschaftler und arbeitet als freier Journalist und Dozent zur Digitalisierung in Politik, Pop und Erinnerungskultur. Er ist Autor von „Zwischen Partizipation und Plattformisierung: Politische Kommunikation in der digitalen Gesellschaft“ (2019)

Prima Klima für Desinformation?

Das gemeinnützige Recherchezentrum Correctiv ist einer der Kooperationspartner von Facebook für Faktenchecks. In diesem Beitrag wird gezeigt, aus welchen Versatzstücken sich die aktuelle Fälschung eines Plakatmotivs zusammensetzt: "Der direkte Vergleich der Plakate zeigt, dass das Plakat aus dem Facebook-Post seinen Ursprung in einem tatsächlichen Plakat der CDU zu den Bundestagswahlen 2017 hat."

(https://twitter.com/correctiv_fakt/status/1123982761075912710)

Avaaz ist vor allem für seine Petitions-Plattform (https://www.avaaz.org/page/de/) bekannt. Vor der Europawahl beginnt die Organisation nun mit dem Crowdsourcing von irreführenden Inhalten und Hate Speech, "damit wir sie aufdecken, darüber berichten und sicherstellen können, dass die Plattformen Maßnahmen ergreifen."

Avaaz Melden Sie jetzt Falschnachrichten! (https://secure.avaaz.org/campaign/de/disinfo_form/? wujvnnb) Soziale Netzwerke werden vor den EU-Wahlen mit Falschnachrichten überflutet - helfen Sie uns, auf Fake Watch über Desinformationen zu berichten! ...

Die Landesanstalt für Medien NRW hat eine Befragung zum Thema "Informationsverhalten bei Wahlen und politische Desinformation" durchführen lassen. Darin kommt auch der Wunsch nach mehr Transparenz und Regulierung von Anzeigen politischer Akteure zum Ausdruck: "Die weit überwiegende Mehrheit aller Befragten ist der Meinung, dass jeder Nutzer klar erkennen können sollte, nach welchen Kriterien ihm politische Wahlwerbung im Internet oder in sozialen Netzwerken angezeigt wird (93%), und dass politische Werbung deutlicher als solche gekennzeichnet sein sollte (89%). Vor allem unter 25-jährige Internetnutzerinnen und -nutzer (80%) sind der Meinung, dass es einer Regulierung von politischer Onlinewerbung, wie es sie bspw. im TV oder im Radio gibt, bedarf."

(https://twitter.com/LFMNRW/status/1123873313015631872)

Matthias Schulze ist Mitarbeiter der Stiftung Wissenschaft und Politik und hat als Autor einen Artikel zum Dossier "Digitale Desinformation" beigesteuert. Darüber hinaus liefert er in seinem Blog percepticon.de Beiträge "über Sicherheitspolitik, Cyber Security, Cyber Konflict und alles Digitale aus Sicht der Sozialwissenschaft". Die aktuelle Folge seines Podcasts befasst sich einführend eine halbe Stunde mit dem Thema. percepticon Podcast 03 WTF is Desinformation? (http://percepticon.de/2019/05/03-wtf-is-desinformation/) Desinformation, Fake News, Propaganda und Informationskrieg? Wer blickt denn da noch durch? Ihr,

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 193 liebe Zuhörer, wenn ihr diese Folge hört! Es geht um die Fragen, was Desinformation mit Propaganda und Diskurstheorie zu tun hat, wie der sowjetische KGB im Kalten Krieg Desinformation betrieben hat und wie man das auf das heutige Informationszeitalter anwenden kann.

Der Guardian hat internationale Umfragedaten im Hinblick auf die Bereitschaft ausgewertet, Erklärungsmuster zu akzeptieren, auch wenn sie der Evidenz oder wissenschaftlicher Erkenntnis widersprechen. Das Fazit: “Analysis of the survey found the clearest tendency among people with strongly held populist attitudes was a belief in conspiracy theories that were contradicted by science or factual evidence.”

The Guardian Revealed: populists far more likely to believe in conspiracy theories (https://www.theguardian. com/world/2019/may/01/revealed-populists-more-likely-believe-conspiracy-theories-vaccines)

Largest survey of its kind uncovers suspicion of vaccines in big part of world population

In einer Sendung, bei der Fragen aus der Wählerschaft diskutiert wurden, wurden auch Zweifel an der wissenschaftlichen Einschätzung der Ursachen des globalen Klimawandels vorgebracht. Das Faktencheck-Team des ZDF hat diese Aussage nochmal überprüft:

(https://twitter.com/sbergerh/status/1124189444138045441)

Die European Journalism Training Association (EJTA) veröffentlicht zur Europawahl Faktenchecks von Studierenden aus ihren Ausbildungsprogrammen. Eine aktuelle Aussage zu den CO2-Emissionen von Elektro-Fahrzeugen im Vergleich zu Diesel-Autos wird als nicht repräsentativ eingeschätzt: "We can conclude that the claim: ‘Electric cars generate higher emissions than diesel cars’ is mostly false. The German investigators have only compared two models: an electric Tesla Model 3 and a Mercedes C220d diesel car. Secondly, Buchal and his coworkers did an investigation in Germany and then generalized their claim."

(https://twitter.com/EUfactcheckEU/status/1124215036350750720)

Am 8. Mai wird auch in Südafrika gewählt. Dort nehmen Faktenprüfer sich Parteiprogramme vor und untersuchen darin aufgestellte Tatsachen-Behauptungen: "Journalists need to fact-check politicians – not just report what they say. The media should not simply act as a loudhailer, amplifying misinformation. They need to do the hard work of checking and contextualising information."

(https://twitter.com/AfricaCheck/status/1124195241861369856)

Das US-amerikanische Poynter Institut wirft einen Blick auf irreführende Inhalte, die sich bei Facebook gerade gut verbreiten, während die Korrekturen wesentlich weniger Aufmerksamkeit erhalten: "This week, two fact-checking outlets in France debunked several viral videos of people trying to light wood beams on fire. The videos, which together had more than 5 million views as of publication, depict internet users trying to ignite the wood as part of a conspiracy theory about the origin of the Notre Dame fire in Paris more than two weeks ago. Since the oaks beams wouldn’t burn, both Facebook and YouTube users claimed that the cathedral’s destruction could not possibly have been an accident — it had to be a criminal act."

(https://twitter.com/factchecknet/status/1124001353460617216)

Aktuell informiert Facebook in Europa mit einer Werbekampagne über die Maßnahmen, die die

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 194

Plattform etwa gegen Desinformation ergriffen hat. Anzeigen dazu werden unter anderem bei Twitter ausgespielt:

(https://twitter.com/FacebookDE/status/1121086136724742144)

In diesem Kontext wurde von Facebook auch eine "Digital Literacy-Bibliothek" lanciert. Dabei handelt es sich um „eine Sammlung von Lernmaterialien, die junge Menschen zum kritischen Denken und gewissenhaften Teilen von Online-Inhalten anregen sollen. (...) Die direkt einsatzbereiten Lernmaterialien wurden vom Youth and Media Team des Berkman Klein Center for Internet & Society an der Harvard University erarbeitet.“ Für die Auseinandersetzung mit Desinformation ist jedoch keine Unterrichtseinheit dort vorgesehen.

Facebook Digital Literacy Library (https://www.facebook.com/safety/educators) Find lessons designed by experts to help young people develop the skills to navigate the digital world, consume information, and responsibly produce and share content.

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 195

Redaktion

1.9.2021

Herausgeber Bundeszentrale für politische Bildung/bpb, Bonn © 2021 Verantwortlich gemäß § 18 Medienstaatsvertrag (MSTV): Thorsten Schilling

Redaktion bpb Stefan Lampe

Redaktion Desinformation und Bundestagswahl 2021 Tobias Fernholz, Stefan Lampe, André Nagel

Externe Redaktion Dr. Erik Meyer

Autoren Ingrid Brodnig Ingo Dachwitz Adrienne Fichter Eva Flecken, Gergana Baeva , Francesca Sotter Lena Frischlich Lutz Güllner Amélie P. Heldt Johannes Hillje Julian Jaursch Tobias R. Keller Ulrike Klinger Matthias Kohring Constanze Kurz Erik Meyer Philipp Müller Stephan Mündges Markus Reuter Stephan Russ-Mohl Alexander Sängerlaub Jan-Hinrik Schmidt Matthias Schulze Karolin Schwarz Fabian Zimmermann

Online-Dossier http://www.bpb.de/gesellschaft/digitales/digitale-desinformation/

bpb.de Dossier: Digitale Desinformation (Erstellt am 30.09.2021) 196 Impressum

Diensteanbieter gemäß § 5 Telemediengesetz (TMG) Bundeszentrale für politische Bildung Adenauerallee 86 53113 Bonn [email protected]

bpb.de