Ausgabe 60
Jubiläumsausgabe
Kommunikation in den Zeiten
des digitalen Kulturwandels





Startseite
Editorial
Fake News als Symptom
postfaktischer Politik

Die erste Internet-Partei –
Warum es die AfD wurde und nicht die
Piraten – Eine Erkundung

Futter für den Troll
Digitale Transformation im
Maschinenraum der
Fußballberichterstattung

Die Wahrheit, die wir meinen
Wintersemester 2000/2001:
Willkommen im Internet

Datenjournalismus: Gespür für Daten
ebenso wichtig wie Kernkompetenzen


Die Autorinnen und Autoren
dieser Ausgabe

Weitere Beiträge zum Thema





Impressum und
Datenschutzerklärung
Themen des Magazins
Ausgabenverzeichnis
Stichwortverzeichnis
Verzeichnis aller Autoren

 


Fake News als Symptom postfaktischer Politik

Text: Björn Brückerhoff    Bild: Washington Post/Björn Brückerhoff (Bildschirmfoto)

Newsletter und RSS-Feed
Artikel drucken
Über Neue Gegenwart
Presse

 

 

Politische Akteure sind in der Mediengesellschaft, in der „fast alle politischen Sachverhalte und Personen nur über Medien vermittelt“ (Brosius/Koschel 2003: 172) in Erscheinung treten, auf Medien angewiesen, um handeln zu können. Die Rolle der Vermittlungsinstanz kam dabei vor der Emergenz sogenannter sozialer Medien, beispielsweise Nutzerplattformen wie Facebook, Twitter oder Instagram, vor allem Journalisten zu, die entlang definierter Qualitätskriterien (vgl. Hendricks/Vestergaard 2017: 6 f.) Beobachtungs-, Validierungs- und Orientierungsleistungen für ihre Rezipienten erbringen (vgl. Neidhardt 2005 [1994]: 19; Neuberger 2006: 113 f.) und den Zugang zur Öffentlichkeit professionell-redaktionell kontrollieren (vgl. Neuberger 2006: 2 ff.). Das politische Handeln musste sich an den Randbedingungen massenmedialer Vermittlung orientieren. Neuberger bezeichnet diesen Abschnitt der Mediengeschichte als Gatekeeper-Zeitalter (vgl. Neuberger 2005).

Inzwischen verfügen Nutzer im Internet aufgrund des dort vorhandenen technischen Rückkanals über einen unvermittelten Zugang zur Öffentlichkeit (vgl. Neuberger 2005: 205 ff.). Sie können ohne Fachkenntnisse und zumeist kostenlos eigene Inhalte erstellen oder Inhalte Dritter sammeln, modifizieren, ausstellen und syndizieren. Die tradierte Rollenverteilung in Kommunikatoren, Mediatoren und Rezipienten befindet sich demnach in Auflösung. Mit dieser Entwicklung verbunden ist ein Demokratisierungsversprechen: Der Zugang zur Öffentlichkeit wird nicht mehr ausschließlich professionell-redaktionell kontrolliert und vereinfacht so die Veröffentlichung und Verbreitung von Inhalten.

Das Verhältnis von Angebot und Aufmerksamkeit im Internet hat Anderson im Long Tail-Ansatz systematisiert (vgl. Anderson 2004; Anderson 2007). Der Ansatz verdeutlicht, dass über die sogenannte Demokratisierung der Produktionsmittel (vgl. Anderson 2007: 54) und der Distribution (vgl. Anderson 2007: 55) professionell anmutende Inhalte zu geringen Kosten oder
kostenlos produziert und verbreitet werden können. Dadurch sind die Inhalte durch permanentes Wachstum und ständige Komplexitätszunahme gekennzeichnet. Die Verbindung des inhaltlichen Angebots durch Nutzer in der Kommunikator- beziehungsweise Mediatorrolle sowie der Nachfrage durch Nutzer in der Rezipientenrolle (vgl. Anderson 2007: 56) muss mittels technischer Medienangebote erfolgen, also in der Regel mittels Suchmaschinen. Sie gestatten die Verbindung von Angebot und Nachfrage in einem durch wachsende Datenmengen und hohe Komplexität geprägten Medienumfeld, in dem auch Medieninhalte ohne Nachfrage (Nischeninhalte) Bestand haben können. Zu nennen sind ferner die auch auf Nutzerplattformen eingesetzten Algorithmen, die auf Basis technischer Auswertungen der von Nutzern vorgenommenen Handlungen bestimmte Inhalte hervorheben und andere Inhalte in den Hintergrund treten lassen oder gar nicht erst anzeigen.

In einem derartigen Medienumfeld greifen zwar die tradierten Formen der Aufmerksamkeitserzeugung weiterhin, beispielsweise die Verschlagwortung politischer Ziele (Agenda 2010, Neue Mitte, 18 Prozent, Hartz-Reformen et cetera), politische Inszenierungen (Bundeskanzler Gerhard Schröder besucht in Gummistiefeln Flutgebiete, die Hartz-Reformen werden im Berliner Dom präsentiert) oder die gezielte Provokation (der AfD-Politiker Björn Höcke bezeichnet das Holocaust-Mahnmal in Berlin als „Denkmal der Schande“ (Gäbler 2017: 22)). Allerdings erhöht sich die Wahrscheinlichkeit der öffentlichen Wahrnehmung durch Zuspitzungen und Skandalisierungen, wie man insbesondere an dem AfD-Beispiel oder an Äußerungen von US-Präsident Donald Trump erkennen kann. Generell kann eine Beschleunigung der Politik befürchtet werden, da Politiker (etwa der US-Präsident via Twitter) ihre Botschaften ungefiltert ihren Öffentlichkeiten zugänglich machen und (mitunter weltweit) Reaktionen auslösen können. Die Gefahr der Verbreitung von Fake News ist auf diesem Weg gestiegen.

Postfaktische Politik
Die Strategie, in der politischen Diskussion auch offensichtlichen Tatsachen zu widersprechen, sie selbst als Lügen zu bezeichnen und stattdessen gefühlten Wahrheiten die Bedeutung von
Fakten zuzumessen, kann „als Symptom einer sich entwickelnden postfaktischen Demokratie“ (Hendricks/Vestergaard 2017: 5) gesehen werden. Offensichtlich ist, dass eine vollständig faktenbasierte politische Kommunikation als Fiktion gelten kann. Lügen in der Politik sind keine Besonderheit, denn Politik ist (auch) „strategische Kommunikation“ (Marschall 2017: 17). Allerdings stellen „opportune Narrative“ (Hendricks/Vestergaard 2017: 5), wie sie in postfaktischen politischen Systemen aufkommen, eine andere Qualität dar: „Das Neue an der postfaktischen Demokratie ist, dass man sich nicht mehr die Mühe geben muss, die Lüge zu verstecken“ (ebd.). Das betrifft beispielsweise dokumentierte eigene Aussagen, die im Nachhinein abgestritten werden (vgl. Weingart 2017: 11), Falschaussagen zu gut belegten Sachverhalten (etwa der Größe der Menschenmenge bei der Amtseinführung von US-Präsident Donald Trump (vgl. Hendricks/Vestergaard 2017: 4)) bis zur Leugnung wissenschaftlicher Erkenntnisse, beispielsweise zum Klimawandel (vgl. Weingart 2017: 11).

Weiteres Symptom postfaktischer Politik ist neben der Verbreitung von Unwahrheiten auch die Abwertung anderer gesellschaftlicher Gruppen, beispielsweise „Einwanderer […], die angeblich nationale Sicherheit, Identität und Werte bedrohen, oder auch politische Eliten in Brüssel oder Washington, die ‚das Volk‘ hintergehen“ (Hendricks/Vestergaard 2017: 8). Der Journalismus, der im Gegensatz zum unvermittelten Zugang zur Öffentlichkeit im Internet Validierungsleistungen erbringt und zur Beurteilung und Einordnung beitragen soll, wird als Lügenpresse (vgl. z. B. Weingart 2017: 11) verunglimpft. Donald Trump, in dessen Umfeld Begriffe wie Fake News oder alternative Fakten erst geprägt wurden, nutzt die beschriebenen Strategien selbst in großem Umfang: „Als Donald Trump in den USA die Regierungsgeschäfte übernahm, beeilte er sich, die Presse zur eigentlichen Opposition zu erklären. Damit schmähte er die tatsächliche politische Opposition als bedeutungslos und wies den Medien eine Rolle zu, für die er sie sogleich kritisieren konnte“ (Gäbler 2017: 32).

Virale Narrative
Die Eigenschaften sozialer Medien begünstigen die Verbreitung zugespitzter Inhalte ebenso wie von Falschmeldungen und Lügen, die auch in der öffentlichen Diskussion inzwischen als Fake News (vgl. Hendricks/Vestergaard 2017: 7) oder alternative Fakten (vgl. Kolmer 2017: 40) bezeichnet werden und die ihre professionelle Anmutung den im Long Tail-Ansatz beschriebenen Randbedingungen verdanken. Sie erlangen durch die Weiterleitung auf Nutzerplattformen sowie durch die Auffindbarkeit mittels Suchmaschinen schnelle Verbreitung und können in der Folge kaum oder nur unter großem Aufwand wieder aus der Öffentlichkeit oder aus Teilöffentlichkeiten entfernt werden.

Fake News werden nicht ausschließlich als Texte verbreitet. Inzwischen werden dazu auch grafische Inhalte genutzt, etwa wissenschaftlich fundiert anmutende Diagramme, die Sachverhalte verzerrt darstellen oder auch vollständig unwahr sein können. Ferner sind mit Bearbeitungsprogrammen manipulierte Bilder (vgl. Guy 2018; Cresci 2017) oder Videos (sogenannte Deepfakes, vgl. z. B. Gensing 2018) im Umlauf. Zur Rezeption manipulierter Bilder liegen empirische Ergebnisse vor, die darauf hindeuten, dass das Erkennen der Fälschung durch die Nutzer in der Mehrheit der Fälle misslingt (vgl. Nightingale/Wade/Watson 2017).

Ebenfalls zur Verbreitung von Fake News können sogenannte Memes genutzt werden. Memes sind Grafiken, die bestimmte Aussagen pointiert, unterhaltend und mitunter lustig darstellen und sich zudem leicht erstellen und verbreiten lassen (vgl. Guy 2017; Mina 2018; Renner 2017): “memes are part of our political culture, utilized by advocacy groups and the president of the United States alike to spread messages“ (Mina 2018). Mit Memes, die in der Regel bei gleichbleibenden Motiven mit sich jeweils verändernden Aussagen in Erscheinung treten, lassen sich Aussagen emotionalisieren, zumeist werden Sachverhalte ins Lächerliche gezogen: “In addition to the information they convey, they also carry notions of emotion, narrative, and identity“ (ebd.).

Die Erstellung und Verbreitung entsprechender Inhalte kann inzwischen auch automatisiert über sogenannte Social Bots erfolgen, die als Algorithmen selbstständig agieren und Inhalte in Form von Kommentaren und Bewertungen einbringen (vgl. Lüber 2017), Diskussionen anregen oder innerhalb von Diskussionen gezielt polarisieren und provozieren. Ihr Potenzial, Inhalte permanent zu verbreiten, zeigt die Schwierigkeit, mittels manueller Verfahren die Ausbreitung von Fake News einzudämmen.

Konsequenzen
Nach Marschall (vgl. 2017: 19) gefährden Lügen in der Politik die Demokratie, denn sie stehen „quer zu mehreren demokratischen Kernelementen: Vertrauen, Kontrolle und Transparenz“ (Marschall 2017: 19): „Vertrauen speist sich aus unterstellter Glaubwürdigkeit“ (ebd.), Lügen stehen dieser Konzeption also entgegen. Kontrollmechanismen, die die Demokratie sichern sollen, werden durch Lügen untergraben. Transparenz wiederum ist erforderlich, um politische Entscheidungen intersubjektiv nachprüfbar zu gestalten und bildet die Grundlage, um die Bevölkerung an der Politik teilhaben zu lassen und zur Teilhabe zu motivieren (vgl. Marschall 2017: 19 f.). Die ohnehin schon bestehende „Vertrauenskrise“ (Bünte 2018) der Medien insgesamt wird durch die Existenz von Fake News eher verstärkt. Das Marktforschungsunternehmen Edelman (vgl. Edelman 2018) hat im Rahmen einer in 28 Ländern durchgeführten, repräsentativen Studie ermittelt, dass 70 Prozent der befragten Mediennutzer insgesamt und 61 Prozent der in Deutschland Befragten „Angst vor Falschmeldungen“ (Bünte 2018) haben. Zudem wüssten „63 Prozent weltweit und 54 Prozent der Deutschen […] nicht, wie sie Fake News von Qualitätsjournalismus unterscheiden sollen“ (ebd.). Insbesondere Nutzerplattformen, die die dort verbreiteten Inhalte in jeweils identischer Weise (grafische Gestaltung und Positionierung) präsentieren, bereiten den Befragten Schwierigkeiten.

Die Vertrauenskrise der Medien bezieht sich möglicherweise auch deshalb zunehmend eher auf Suchmaschinen wie Google oder Nutzerplattformen wie Facebook. Die im Journalismus oftmals pessimistische Perspektive auf sogenannte Fake News lässt sich demnach nicht unbedingt halten: „Die inzwischen immer lauter werdende Kritik an der Verbreitung von Falschmeldungen über die sozialen Medien deutet nicht darauf hin, dass die Gesellschaft viel Freude am ‚Postfaktischen‘ hätte. Vielmehr scheint sich ein Gefühl der Desorientierung, des Betrogenseins zu verbreiten“ (Weingart 2017: 16).

Zu dieser Einschätzung kommt auch die Studie von Edelman, die für die traditionellen Massenmedien – auch in Deutschland – einen Vertrauenszuwachs ermittelt hat (vgl. Edelmann 2018: 19 ff.). Facebook fordert seine Nutzer inzwischen auf, sich an der Kennzeichnung unglaubwürdiger Inhalte zu beteiligen und hat zugleich ein Unternehmen beauftragt, das die Aufdeckung von Fake News unterstützen soll (vgl. Reinbold 2017). Google beschäftigt 10 000 sogenannte Quality Raters (vgl. Rixecker 2017), die anhand eines 160-seitigen Regelwerks (vgl. ebd.) Websites unter anderem hinsichtlich ihrer Glaubwürdigkeit beurteilen sollen. Die Bewertungen werden genutzt, um die technischen Prozesse der Suchmaschine bei der Identifikation von Fake News zu unterstützen und für zukünftige technische Validierungen zu trainieren, bei denen die Suchmaschine Fake News selbstständig erkennen soll (vgl. ebd.). Potenziell „problematische Inhalte“ (Rixecker 2017) werden allerdings nicht aus dem Index der Suchmaschine entfernt. Wird eine spezifische Seite gesucht, die als problematisch klassifiziert worden ist, wird sie den Nutzern dennoch angezeigt. Lediglich bei thematisch allgemein gehaltenen Suchhandlungen soll die Zusammenstellung der Suchergebnisse die Bewertungen der Quality Raters unmittelbar berücksichtigen (vgl. Rixecker 2017).

Diskussionsansätze
In der Diskussion um Fake News und ihrer Folgen werden diverse Maßnahmen erörtert, um die potenziell negativen Wirkungen zu mildern beziehungsweise zu verhindern.

  • Dazu zählt beispielsweise die Festlegung verbindlicher Transparenzregeln (Berichtspflichten von Politikern, Informationsfreiheitsgesetz et cetera) (vgl. Marschall 2017: 20).

  • Auch die Stärkung gesellschaftlicher Akteure, die Lügen aufdecken und auflösen können, etwa das Wissenschaftssystem oder der Journalismus, ist als Maßnahme zu nennen. Der Journalismus besitzt das Potenzial, in der Öffentlichkeit ein Bewusstsein für Fake News erzeugen zu können (vgl. ebd.). Das Problem hier ist, dass ein Teil der Bevölkerung die Medien selbst als unglaubwürdig und als Teil einer lügenden Elite sieht, die daher kaum zur Aufklärung von Lügen beitragen kann (vgl. Marschall 2017: 21), allerdings ändert sich dieser Eindruck möglicherweise derzeit (s. o.). Einige Medien, etwa die Washington Post, wollen ihre zentrale Funktion in der Demokratie auch durch markante Claims unterstreichen. So hat die Washington Post seit 2017 die dramatisch klingende, aber vollkommen richtige Zeile "Democracy dies in Darkness" ihrem Titel hinzugefügt.

  • Die Möglichkeit, von Nutzern oder freien Mitarbeitern als Fake News identifizierte Beiträge auf Nutzerplattformen zu kennzeichnen, kann die weitere Verbreitung erschweren (vgl. Fanta 2018). Zudem könnten faktisch korrekte Medieninhalte algorithmenbasiert gefördert werden, um die Sichtbarkeit von Fake News zu verringern (vgl. Fanta 2018).

  • Denkbar ist auch der Einsatz von Polizei und Staatsanwaltschaften zur Aufdeckung und Ahndung von Lügen (vgl. ebd.). Schwierigkeiten bestehen allerdings im Nachweis der Absichtlichkeit der Lüge (vgl. ebd.) und der Tatsache, dass Fake News nicht zwingend illegal sind. Dies gelte sogar für die Mehrzahl derartiger Inhalte (vgl. Fanta 2018), daher droht hier auch eine Beschränkung der Meinungsfreiheit.

  • Programme wie Social Bots oder Verfahren wie Microtargeting, bei denen verhaltensbasierte Botschaften an die Nutzer gesendet werden, beispielsweise in Form von Wahlwerbung, könnten transparent gestaltet werden müssen (vgl. Dachwitz 2017).

  • Neben den Nutzerplattformen und Suchmaschinenanbietern kann auch die Politik Unterstützung durch Experten beziehen: Die Europäische Kommission hat eine 39 Mitglieder zählende Expertengruppe bestellt, zu der auch Vertreter von Google, Facebook und Twitter gehören (vgl. Europäische Kommission 2018), um Maßnahmen gegen Fake News zu entwickeln. Diese Maßnahmen könnten durch eine Verpflichtung der Nutzerplattformen zur stärkeren Kontrolle der Inhalte und zur Löschung als kritisch beurteilter Inhalte (vgl. Fanta 2018) verschärft werden. Die Schwierigkeit besteht darin, die große und permanent anwachsende Menge und Komplexität von Inhalten bearbeiten zu können. Zudem wird den Unternehmen die Entscheidung selbst überlassen, welche Inhalte gerechtfertigt und welche als Fake News problematisch sind.

  • Generell erscheint eine Förderung der Medienkompetenz (vgl. Marschall 2017: 22) sinnvoll, etwa durch eine verstärkte Aufnahme des Themas im Schulunterricht.

Suchmaschinen sind für die Verbreitung von Fake News ebenso wie Nutzerplattformen von Bedeutung. Sie werden seit Jahren als Gatekeeper charakterisiert, die den Zugang zu Inhalten regulieren (vgl. z. B. Machill et al. 2003: 18; Röhle 2010: 137; Stark 2014: 2; Stark/Magin/Jürgens 2014: 21; kritisch dazu Neuberger 2005a: 4).

  • Die Forderung des ehemaligen Ministers für Justiz und Verbraucherschutz, Heiko Maas, lautete demnach auch, die verwendeten Algorithmen zu veröffentlichen (vgl. z. B. Greif 2014; Schultz 2014). Dies ist jedoch aus der Perspektive der Suchmaschinenanbieter aus technischen sowie aus ökonomischen Gründen problematisch (vgl. z. B. Greif 2014; Schultz 2014), da Suchmaschinen mit der geforderten Transparenz die externe Manipulation ihrer Ergebniserrechnung erleichtern und damit ihr Geschäftsmodell gefährden würden.

  • Die Institution der Quality Raters (s. o.) ähnelt dem Vorschlag von Machill/Beiler/Zenker, „unabhängige, von gesellschaftlich relevanten Gruppen besetzte Beiräte“ (Machill/Beiler/Zenker 2007: 14) über die Qualität der Suchergebnisse befinden zu lassen. Dies könnte beispielsweise verhindern, dass bei der Eingabe bestimmter Begriffe in Suchmaschinen über die Vorschlagsfunktion Diskriminierungen erfolgen, beispielsweise durch Vorschläge stereotyper Begriffe in Bezug auf bestimmte Bevölkerungsgruppen (vgl. Dachwitz 2017).

  • Die Einrichtung einer öffentlich-rechtlichen Suchmaschine (vgl. Machill/Beiler/Zenker 2007: 14) ist ebenfalls gefordert, bislang allerdings nicht realisiert worden. Angesichts des erheblichen finanziellen Aufwands und der dafür notwendigen technischen Kompetenz durch (hochbezahlte) Expertinnen und Experten wird dieses Ziel wohl nicht erreicht werden können.

  • Die Löschung von Inhalten aus dem Suchmaschinen-Index (vgl. Greis/DPA 2018) ist eine naheliegende Forderung, die jedoch die bereits aufgezeigte Zensurfrage sowie Fragen nach der Zuständigkeit und nach der konkreten technischen Umsetzung bedingt.

Neben den Problemen der fehlenden Transparenz dürfte sich in sehr naher Zukunft angesichts der wachsenden Verbreitung digitaler Assistenten die Frage stellen, wie Fake News und einseitigen Inhalten vorgebeugt werden kann, denn Programme wie Alexa (Amazon), Siri (Apple) oder Cortana (Microsoft) antworten auf frei formulierte Fragestellungen mit möglichst eindeutigen Antworten, die intransparent ermittelt werden. Die bislang ebenfalls intransparent ermittelte Auswahl an Verweisen fällt dann weg.





Literatur


Anderson, Chris (2004): The Long Tail. In: Wired Magazine, 12. Jg., H. 10. Online-Dokument: https://www.wired.com/2004/10/tail/ (06.05.18).

Anderson, Chris (2007): The Long Tail. How Endless Choice is Creating Unlimited Demand. London: Random House.

Bünte, Oliver (2018): Medien-Vertrauenskrise: Immer mehr Menschen haben Angst vor Fake News. In: Heise Online v. 23.01. Online-Dokument: https://www.heise.de/newstic ker/meldung/Medien-Vertrauenskrise-Immer-mehr-Menschen-haben-Angst-vor-Fake-News-3
948678.html (16.06.18).

Cresci, Elena (2017): Fake tube sign read out on BBC News and in Commons after Westminster attack. In: The Guardian v. 23.03. Online-Dokument: https://www.theguardian.com/uk-news/2017/mar/23 /fake-tube-sign-read-out-bbc-westminster-attack (16.06.18).

Dachwitz, Ingo (2017): Öffentlichkeit: Interview mit Frank Pasquale: Wie Facebook und Google die digitale Öffentlichkeit dominieren. In: Netzpolitik.org v. 15.07. Online-Dokument: https://netzpolitik.org/2017/interview-mit-frank-pasquale-wie-facebook-und-google-die-digital e-oeffentlichkeit-dominieren/ (13.06.18).

Edelmann (2018): 2018 Edelman Trust Barometer. Global Report. Online-Dokument: https://cms.edelman.com/sites/default/files/2018-01/2018%20Edelman%20Trust%20Baromet
er%20Global%20Report.pdf (16.06.18).

Europäische Kommission (2018): Experts appointed to the High-Level Group on Fake News and online disinformation. Online-Dokument: https://ec.europa.eu/digital-single-market/en/news /experts-appointed-high-level-group-fake-news-and-online-disinformation (16.06.18).

Fanta, Alexander (2018): Öffentlichkeit: EU-Kommission lässt Expertenheer gegen Fake News aufmarschieren. In: Netzpolitik.org v. 16.01. Online-Dokument: https://netzpolitik.org/2018 /eu-kommission-laesst-expertenheer-gegen-fake-news-aufmarschieren/ (15.06.18).

Gäbler, Bernd (2017): AfD und Medien. Analyse und Handreichungen. Ein Diskussionsbeitrag der Otto Brenner Stiftung. Frankfurt/Main: Otto-Brenner-Stiftung.

Gensing, Patrick (2018): Manipulierte Videos; Auf dem Weg in eine alternative Realität? In: Tagesschau.de v. 22.02. Online-Dokument: http://faktenfinder.tagesschau.de/hintergrund /deep-fakes-101.html (16.06.18).

Greif, Björn (2014): Bundesjustizminister Maas fordert Einblick in Googles Suchalgorithmus. In: ZDNet.de v. 16.09. Online-Dokument: http://www.zdnet.de/88205958/bundesjustiz minister-mass-fordert-einblickgoogles-suchalgorithmus/ (04.05.18).

Greis, Friedhelm; DPA (2018): Bundesgerichtshof: Suchmaschinen müssen Inhalte nicht vorab prüfen. In: Golem.de v. 27.02. Online-Dokument: https://www.golem.de/news/bundesgeri chtshof-suchmas chinen-muessen-inhalte-nicht-vorab-pruefen-1802-133032.html (08.05.18).

Guy, Hannah (2017): Why we need to understand misinformation through visuals. In: First Draft/Harvard Kennedy School/Shorenstein Center on Media, Politics and Public Policy v. 17.10. Online-Dokument: https://firstdraftnews.org/understanding-visual-misinfo/ (16.06.18).

Hendricks, Vincent F.; Vestergaard, Mads (2017): Verlorene Wirklichkeit? An der Schwelle zur postfaktischen Demokratie. In: Aus Politik und Zeitgeschichte. 67. Jg., H. 13 v. 27.03., S. 4-10.

Kolmer, Petra (2017): Wahrheit. Ein philosophischer Streifzug. In: Aus Politik und Zeitgeschichte. 67. Jg., H. 13 v. 27.03., S. 40-44.

Lüber, Claus (2017): Social Bots: Die Macht der Meinungsroboter. In: Goethe-Institut. Online-Dokument: https://www.goethe.de/de/kul/med/20951165.html (16.06.18).

Machill, Marcel; Beiler, Markus; Zenker, Martin (2007): Suchmaschinenforschung. Überblick und Systematisierung eines interdisziplinären Forschungsfeldes. In: Machill, Marcel; Beiler, Markus (Hrsg.): Die Macht der Suchmaschinen/The Power of Search Engines. Köln: Herbert von Halem, S. 7-43.

Machill, Marcel; Neuberger, Christoph; Schweiger, Wolfgang; Wirth, Werner (2003): Wegweiser im Netz: Qualität und Nutzung von Suchmaschinen. In: Machill, Marcel; Welp, Carsten (Hrsg.): Wegweiser im Netz. Qualität und Nutzung von Suchmaschinen. Gütersloh: Bertelsmann Stiftung, S. 13-490.

Marschall, Stefan (2017): Lügen und Politik im „postfaktischen Zeitalter“. In: Bundeszentrale für politische Bildung v. 24.03. Online-Dokument: http://www.bpb.de/apuz/245217/luegen-und-politik-im-postfaktischen-zeitalter (03.06.18).

Mina, An Xiao (2018): Memes and visuals come to the fore. In: Nieman Lab. Predictions for Journalism 2018. Online-Dokument: http://www.niemanlab.org/2017/12/memes-and-visuals-come-to-the-fore/ (16.06.18).

Neidhardt, Friedhelm (2005) [1994] Jenseits des Palavers. Funktionen politischer Öffentlichkeit. In: Wunden, Wolfgang (Hrsg.): Öffentlichkeit und Kommunikationskultur. Münster: Lit, S. 19-30.

Neuberger, Christoph (2005): Das Ende des „Gatekeeper“-Zeitalters. In: Lehmann, Kai; Schetsche, Michael (Hrsg.): Die Google-Gesellschaft. Vom digitalen Wandel des Wissens. Bielefeld: Transcript, S. 205-212.

Neuberger, Christoph (2005a): Angebot und Nutzung von Internet-Suchmaschinen. Marktstrategien, Qualitätsaspekte, Regulierungsziele. In: Media Perspektiven. o. Jg., H. 2, S. 2-13.

Neuberger, Christoph (2006): Weblogs verstehen. Über den Strukturwandel der Öffentlichkeit im Internet. In: Picot, Arnold; Fischer, Tim (Hrsg.): Weblogs professionell. Grundlagen, Konzepte und Praxis im unternehmerischen Umfeld. Heidelberg: dpunkt, S. 113-129.

Nightingale, Sophie J.; Wade, Kimberly A.; Watson, Derrick G. (2017): Can people identify original and manipulated photos of real-world scenes? In: Cognitive Research: Principles and Implications v. 18.07. Online-Dokument: https://doi.org/10.1186/s41235-017-0067-2 (16.06.18).

Reinbold, Fabian (2017): Fake News: Deutsches Recherchebüro soll Falschmeldungen auf Facebook richtigstellen. In: Spiegel Online v. 15.01. Online-Dokument: http://www.spie gel.de/netzwelt/web/facebook-correctiv-soll-fake-news-richtigstellen-a-1130014.html (13.06.18).

Renner, Nausicaa (2017): Memes trump articles on Breitbart’s Facebook page. In: Columbia Journalism Review v. 30.01. Online-Dokument: https://www.cjr.org/tow_center/memes-trump-articles-on-breitbarts-facebook-page.php (16.06.18).

Rixecker, Tim (2017): Gegen Fake-News und Gewalt: So trainiert Google den Suchalgorithmus. In: T3N.de v. 15.03. Online-Dokument: https://t3n.de/news/google-fake-news-gewalt-suchalgorithmus-805035/ (16.06.18).

Röhle, Theo (2010): Die Demontage der Gatekeeper. Relationale Perspektiven zur Macht der Suchmaschinen. In: Becker, Konrad; Stalder, Felix (Hrsg.): Deep Search. Politik des Suchens jenseits von Google. Bonn: Bundeszentrale für politische Bildung, S. 133-149.

Schultz, Stefan (2014): Sorge vor Kartell: Maas hätte gerne, dass Google geheime Suchformel offenlegt. In: Spiegel Online v. 16.09. Online-Dokument: http://www.spiegel.de/wirtschaft/ unternehmen/google-heiko-maas-fordertoffenlegung-von-algorithmus-a-991799.html (06.05.18).

Stark, Birgit (2014): Don’t be evil. Die Macht von Google und die Ohnmacht der Nutzer und Regulierer. In: Stark, Birgit; Dörr, Dieter; Aufenanger, Stefan: Die Googleisierung der Informationssuche. Suchmaschinen zwischen Nutzung und Regulierung. Berlin/Boston: Walter de Gruyter, S. 1-19.

Stark, Birgit; Magin, Melanie; Jürgens, Pascal (2014): Navigieren im Netz. Befunde einer qualitativen und quantitativen Nutzerbefragung. In: Stark, Birgit; Dörr, Dieter; Aufenanger, Stefan: Die Googleisierung der Informationssuche. Suchmaschinen zwischen Nutzung und Regulierung. Berlin/Boston: Walter de Gruyter, S. 20-74.

Weingart, Peter (2017): "Wahres Wissen" und demokratisch verfasste Gesellschaft. In: Aus Politik und Zeitgeschichte. 67. Jg., H. 13 v. 27.03., S. 11-16.

Der Autor



Björn Brückerhoff hat Neue Gegenwart® 1998 gegründet und ist Herausgeber, Chefredakteur und grafischer Gestalter aller Neue Gegenwart®-Marken. Er ist promovierter Kommunikationswissenschaftler, Experte für  Medienwandel, digitale Kommunikation und Transformation, Journalist, Editorial Designer, Lead Awards- und Grimme Online Award-Preisträger, Industriekaufmann und Hochschullehrer. Sein Schwerpunkt in Lehre, Forschung und Publikationstätigkeit ist der digitale Wandel mit seinen gesellschaftlichen und ökonomischen Wirkungen. Seine Dissertation erscheint im Frühjahr 2019 im Buchhandel.

Website:
www.brueckerhoff.de
Twitter: Follow
@brueckerhoff