Verbreitung von
Desinformation und KI
Inhaltsangabe
Wie häufig gibt es Desinformation?
Die Frage, wie viel Desinformation es gibt, ist nicht so leicht zu beantworten. Man kann zwar theoretisch eingrenzen, was mit »Desinformation« gemeint ist. Aber praktisch ist es schwierig, die Menge an Desinformation systematisch zu messen. Hinzu kommt, dass Forscher*innen zum Teil unterschiedliche Phänomene mit dem Begriff beschreiben, sodass man ihre Studienergebnisse nicht so einfach miteinander vergleichen kann (vgl. z.B. Kapantai et al. 2021).
Auch die Häufigkeit von Desinformation kann man unterschiedlich messen: Man kann zum Beispiel bestimmen, wie häufig Desinformation auftritt (z.B. Prozent der TikTok-Videos zum Thema Bundestagswahl, die Falschinformationen waren). Mit Blick auf Effekte relevanter ist aber die Frage, wie häufig wir Desinformation tatsächlich ausgesetzt sind (engl. »exposure«). Oder anders gefragt: Wie oft begegnen Menschen falschen Informationen im Alltag?
In dieser Frage kommt eine Gegenüberstellung mehrerer Studien, die darauf Antworten geben wollen, zu dem Ergebnis: Die relative Häufigkeit, mit der Menschen Falschinformationen begegnen, ist mit ca. fünf Prozent im Schnitt deutlich geringer als weithin angenommen (Acerbi et al. 2022).
Die an der Auswertung beteiligten Forscher*innen zeigen etwa anhand von Studien aus den USA, dass falsche Informationen mit nur 0,7 bis sechs Prozent einen recht geringen Anteil des Nachrichtenkonsums der Menschen ausmachen. Ähnlich sieht es in Deutschland und in Frankreich aus, wo der Anteil zwischen eins und fünf Prozent veranschlagt wird (Altay et al. 2022; Cordonier & Brest 2021).
Wichtig ist in diesem Zusammenhang aber auch: Wer wie viel Desinformation ausgesetzt ist, das ist sehr ungleich verteilt. So waren es in einer Untersuchung auf Twitter gerade einmal ein Prozent der Menschen, die 80 Prozent aller Inhalte zu Gesicht bekamen, die von den Forscher*innen als »fake news« eingestuft wurden. Noch weniger Menschen (0,1 Prozent) waren für das Teilen von knapp 80 Prozent jener Inhalte verantwortlich (Grinberg et al. 2019).
Wie viel Desinformation eine Studie zählt, hängt auch davon ab, was darunter verstanden wird. Steckt hinter einer Falschinformation eine Täuschungs- oder Aufklärungsabsicht? Wie weit müssen Tatsachen überdehnt werden, damit sie irreführend oder gar falsch sind? Und was ist mit Gerüchten, deren Wahrheitsgehalt sich nicht überprüfen lässt? Die obigen Studien haben in der Regel nur einzelne Aspekte untersucht. Übersichtsarbeiten, die Studien zur Häufigkeit von Desinformation zusammenfassen, verwenden daher oft den Sammelbegriff der »Misinformation«.
Sacha Altay, Rasmus Kleis Nielsen & Richard Fletcher, »Quantifying the “Infodemic”. People Turned to Trustworthy News Outlets during the 2020 Coronavirus Pandemic«, in: Journal of Quantitative Description: Digital Media, Jg. 2 (2022), S. 1–29.
Alberto Acerbi, Sacha Altay & Hugo Mercier, »Research Note. Fighting Misinformation or Fighting for Information?«, in: Harvard Kennedy School Misinformation Review, Nr. 1, Jg. 3 (2022), online abrufbar hier.
Laurent Cordonier & Aurélien Brest, How Do the French Inform Themselves on the Internet? Analysis of Online Information and Disinformation Behaviors, hgg. v. Fondation Descartes (März 2021), online abrufbar hier.
Nir Grinberg et al., »Fake News on Twitter during the 2016 U.S. Presidential Election«, in: Science, Nr. 6425, Jg. 363 (2019), S. 374–378.
Eleni Kapantai et al., »A Systematic Literature Review on Disinformation. Toward a Unified Taxonomical Framework«, in: New Media & Society, Nr. 5, Jg. 23 (2021), S. 1301–1326.
Wo und zu welchen Themen werden viele Desinformationen verbreitet?
Studien zum Aufkommen von Desinformation untersuchen meist einzelne Phänomene, Medien oder Themen. Zum Beispiel ihre Verbreitung auf bestimmten Plattformen, über Messenger-Dienste, in Alternativmedien, auf Webseiten oder in Suchmaschinen-Ergebnissen. Oder ihre Verbreitung in bestimmten Themenfeldern, vor allem politische wie Wahlen, oder auch Gesundheit, etwa rund um die Corona-Pandemie (Pérez-Escolar et al. 2023). Deren Ergebnisse kann man aber kaum miteinander vergleichen, sodass allgemeine Aussagen zur Häufigkeit schwierig zu treffen sind. Unklar ist daher auch, ob Desinformation bei bestimmten Themen häufiger vorkommt als bei anderen (vgl. Broda & Strömbeck 2024).
Spezifische Fragen sind also durchaus gut ausgeleuchtet, etwa wie es mit Desinformation auf Facebook-Seiten deutschsprachiger Alternativmedien während der Pandemie aussieht. Hierzu wurden in einer Studie (Boberg et al. 2020) vollständig oder teilweise erfundene Nachrichten sowie Verschwörungstheorien identifiziert, indem man Postings jener Medien mit Informationen von Fact-Checking-Organisationen und weiteren Quellen abglich. Im Ergebnis machten Postings mit falschen Informationen nur 1,1 Prozent der Inhalte auf den untersuchten Facebook-Seiten aus.
Ähnlich spezifisch sind etwa Erkenntnisse zu Desinformation auf Twitter während der EU-Parlamentswahlen 2019. Hier kommt eine Studie (Marchal et al. 2019) zu dem Ergebnis, dass weniger als vier Prozent aller Nachrichten aus unzuverlässigen Quellen stammten. Für die Präsidentschaftswahlen in den USA 2016 wiederum fand eine Studie (Grinberg et al. 2019) heraus, welchen Anteil auf Twitter geteilte Links an den politischen Nachrichten im News Feed haben, die zu unzuverlässigen Nachrichtenseiten führen, also zu solchen, die sich als Journalismus aufmachen, aber keine entsprechenden Standards gewährleisten. Das Ergebnis: im Durchschnitt weniger als 1,2 Prozent.
Eine ähnliche Untersuchung liegt zu Facebook-Postings mit Links zu nicht vertrauenswürdigen Webseiten während der US-Wahlen 2016 vor (Guess et al. 2020). Sie schätzt ihren Anteil am durchschnittlichen Nachrichtenkonsum mit 5,9 Prozent etwas höher. Dabei zeigten sich auch Unterschiede bezüglich der ideologischen Ausrichtung der Quellen: Insgesamt war die Nutzung nicht vertrauenswürdiger, konservativer Webseiten mit einem Anteil von 4,6 % des Nachrichtenkonsums höher als die Nutzung von nicht vertrauenswürdigen, liberalen Webseiten, die nur 0,6 % des Nachrichtenkonsums der Studienproband*innen ausmachten.
Ferner gibt es auch Studien, die nicht auf Social Media schauen, sondern beispielsweise auf Suchmaschinenergebnisse oder klassische Webseiten (z.B. Bryant et al. 2014). Hier lagen schon früh relevante Untersuchungen vor. Etwa solche, die zeigen, dass US-Amerikaner*innen, die im Jahr 2009 bei Google Informationen zum Thema Impfungen suchten, zu einem Viertel Vorschläge erhielten, die zu Seiten mit falschen Informationen und mit impfkritischen Inhalten führten (Kata 2010).
Svenja Boberg & Thorsten Quandt, »Pandemic Populism. Facebook Pages of Alternative News Media and the Corona Crisis. A Computational Content Analysis«, in: arXiv (2023), arXiv:2004.02566.
Elena Broda & Jesper Strömbäck, »Misinformation, Disinformation, and Fake News. Lessons from an Interdisciplinary, Systematic Literature Review«, in: Annals of the International Communication Association, Nr. 2, Jg. 48 (2024), S. 139–166.
Amy G. Bryant et al., »Crisis Pregnancy Center Websites. Information, Misinformation and Disinformation«, in: Contraception, Nr. 6, Jg. 90 (2014), S. 601–605.
Nir Grinberg et al., »Fake News on Twitter during the 2016 U.S. Presidential Election«, in: Science, Nr. 6425, Jg. 363 (2019), S. 374–378.
Andrew M. Guess, Brendan Nyhan & Jason Reifler, »Exposure to Untrustworthy Websites in the 2016 US Election«, in: Nature Human Behaviour, Jg. 4 (2020), S. 472–480.
Anna Kata, »A Postmodern Pandora’s Box. Anti-Vaccination Misinformation on the Internet«, in: Vaccine, Nr. 7, Jg. 28 (2010), S. 1709–1716.
Nahema Marchal et al., Junk News during the EU Parliamentary Elections. Lessons from a seven-Language Study of Twitter and Facebook, hgg. v. Oxford Internet Institute, University of Oxford (2019), online abrufbar hier.
Marta Pérez-Escolar, Darren Lilleker, Alejandro Tapia-Frade, »A Systematic Literature Review of the Phenomenon of Disinformation and Misinformation«, in: Media and Communication, Nr. 2, Jg. 11 (2023), S. 76-87.
Was sind Deepfakes?
In Zeiten fortgeschrittener künstlicher Intelligenz und immer leichter werdender technischer Manipulationsmöglichkeiten wird es zunehmend schwieriger einzuschätzen, ob Fotos, Audio- und Videoaufnahmen »echt« sind. Sorge, dadurch auf täuschend echte Medieninhalte hereinzufallen, besteht dabei insbesondere mit Blick auf sogenannte Deepfakes.
Dieses Kofferwort verbindet zwei Aspekte miteinander: »Deep« bezieht sich primär auf Methoden des maschinellen Lernens (Deep Learning), die für die Erstellung künstlicher Inhalte genutzt werden. Manche argumentieren auch, es ginge dabei um die Tiefe der Täuschung, also wie glaubwürdig diese sei (Altuncu et al. 2024). »Fake« wiederum meint, dass es sich dabei um die Manipulation bereits bestehender Inhalte handelt oder sie komplett synthetisch erzeugt werden, etwa, um eine Person realistisch darzustellen, die eine Aussage tätigt oder eine Handlung vollzieht, die in Wirklichkeit nie geschehen ist (Twomey et al. 2025).
Während der Begriff Deepfake in erster Linie für realistische Fälschungen verwendet wird, nennt man Inhalte, die zwar auch synthetisch, aber weniger überzeugend hergestellt sind, Cheap-, Soft- oder Shallowfakes. Sie finden häufig in Unterhaltungsformaten oder für satirische Zwecke Verwendung (Hameleers 2024). Weil man aber die Grenze zwischen täuschend echt oder erkennbarem Fake nicht objektiv bestimmen kann – wie »deep« genau also die Fälschung ist – ist manchmal auch von einem Deep-Soft-Fake-Spektrum die Rede (Paris & Donovan 2019).
Gleichwohl ist nicht unumstritten, wie viel Fake eigentlich in Deepfake steckt. Zwar ist in erster Linie dann die Rede von Deepfakes, wenn es um missbräuchliche Inhalte bzw. eine Täuschungsabsicht geht. Manchmal werden aber auch Inhalte so bezeichnet, bei denen die Täuschung keine missbräuchliche Absicht verfolgt – etwa in Bildungskontexten oder um Menschen, die nicht sprechen können, eine synthetische Stimme zu geben (De Ruiter 2021).
In diesen Fällen kann, wie manche Autor*innen argumentieren, der Begriff der »synthetic media« (engl. für synthetische oder artifizielle Medieninhalte) das Phänomen neutraler und vollständiger beschreiben (Raemy et al. 2024; Whittaker 2020). Zudem wird der Begriff auch aufgrund seiner Wortherkunft – nämlich aus dem Pornografiebereich – kritisiert.
Enes Altuncu, Virginia N. L. Franqueira & Shujun Li, »Deepfake. Definitions, Performance Metrics and Standards, Datasets, and a Meta-Review«, in: Frontiers in Big Data, Jg. 7 (2024), 1400024.
Adrienne de Ruiter, »The Distinct Wrong of Deepfakes«, in: Philosophy & Technology, Jg. 34 (2021), S. 1311–1332.
Michael Hameleers, »Cheap Versus Deep Manipulation. The Effects of Cheapfakes Versus Deepfakes in a Political Setting«, in: International Journal of Public Opinion Research, Nr. 1, Jg. 36, (2024), edae004.
Britt Paris & Joan Donovan, Deepfakes and Cheap Fakes. The Manipulation of Audio and Visual Evidence, hgg. v. Data & Society (2019), online abrufbar hier.
Patric Raemy et al., »Deepfakes and Journalism. Normative Considerations and Implications«, in: Journalism Studies, Nr.14, Jg. 26 (2025), S. 1724–1744.
John Twomey et al., »What Is So Deep about Deepfakes? A Multi-Disciplinary Thematic Analysis of Academic Narratives about Deepfake Technology«, in: IEEE Transactions on Technology and Society, Nr. 1, Jg. 6 (2025), S. 64-79. https://doi.org/10.1109/TTS.2024.3493465.
Lucas Whittaker et al., »“All Around Me Are Synthetic Faces”. The Mad World of AI-Generated Media«, in: IT Professional, Nr. 5, Jg. 22 (2020), S. 90-99.
Wie verbreitet sind Deepfakes?
Es gibt – Stand Jahresende 2025 – wenige empirische Befunde zur Verbreitung von Deepfakes. Verlässliche Aussagen über das tatsächliche Ausmaß des Phänomens oder wie es in Erscheinung tritt, sind daher schwierig. Erste Fallstudien geben jedoch Hinweise darauf, wie zugänglich die Technologie heute ist und zeigen beispielhaft, dass moderne Text-to-Speech-Modelle bereits auf Grundlage kurzer Original-Tonspuren und ohne großen technischen Aufwand authentisch die Stimme einer Person imitieren können (Amezaga & Hajek 2022).
Dass es dann aber doch nicht ganz so einfach ist, überzeugend zu manipulieren (allein schon, weil man mit der Technik auch umzugehen wissen muss), zeigt ein Experiment: Dabei haben es die Proband*innen auch mit modernen Tools nicht geschafft, Deepfakes zu erstellen, die nicht von Expert*innen als solche identifiziert werden konnten (Mehta et al. 2023). Solche Ergebnisse scheinen Entwarnung zu geben, stellen aber nur eine Momentaufnahme dar, denn die Modelle entwickeln sich mit hoher Geschwindigkeit weiter.
Erhebungen außeruniversitärer Forschung zeigen, dass über 95 Prozent der analysierten Deepfakes in der Pornografie zu finden sind (Ajder et al. 2019; Securityhero 2023). Allerdings ist die Aussagekraft dieser Daten begrenzt, da es ihnen an wissenschaftlicher Transparenz und Möglichkeiten der Replizierbarkeit fehlt (Birrer & Just 2024). Dass Pornografie allerdings eine zentrale Rolle in der Geschichte von Deepfakes spielt, zeigt sich daran, dass der Name „Deepfakes“ auf einen Reddit-User zurückgeht, der 2017 mithilfe von Deep-Learning-Modellen die Gesichter bekannter Schauspieler*innen in Pornovideos erscheinen ließ. Daraufhin entstand das gleichnamige Subreddit r/deepfakes (Twomey et al. 2025; Raemy et al. 2024).
Andere Fallanalysen zeigen, dass visuelle Desinformation bislang meistens bedeutet, dass Bildunterschriften falsch oder irreführend sind. Täuschend echte, visuelle Deepfakes sind bisher nur selten – oder, wie eine Untersuchung von Brennen et al. (2020) zur COVID-19-Pandemie nahelegt, überhaupt nicht – nachweisbar. Solche fragmentarischen Befunde sollten jedoch nicht überinterpretiert werden, da die Studienlage zu dünn ist, um verallgemeinerbare Aussagen treffen zu können.
Vor allem einige wenige, dafür aber außerordentlich authentische Fälschungen in politischen Kontexten – etwa der Deepfake des Kiewer Bürgermeisters Vitali Klitschko, der sich scheinbar in Videokonferenzen mit mehreren europäischen Politiker*innen befand – haben wachsende Bedenken hinsichtlich der Auswirkungen auf internationale Beziehungen und den Journalismus ausgelöst (Weikmann & Lecheler 2023).
Naroa Amezaga & Jeremy Hajek, »Availability of Voice Deepfake Technology and its Impact for Good and Evil«, in: SIGITE ’22: Proceedings of the 23rd Annual Conference on Information Technology Education (Chicago, IL, USA: 21.-24. Sept. 2022), S. 23-28.
Henry Ajder et al., The State of Deepfakes. Landscape, Threats, and Impact, hgg. v. Deeptrace (Amsterdam: 2019), online abrufbar hier.
Alena Birrer & Natascha Just, »What We Know and Don’t Know about Deepfakes. An Investigation into the State of the Research and Regulatory Landscape«, in: New Media & Society, Nr. 12, Jg. 27 (2024), S. 6819-6838. https://doi.org/10.1177/14614448241253138.
Scott Brennen, Felix M. Simon & Rasmus Kleis Nielsen, »Beyond (Mis)Representation. Visuals in COVID-19 Misinformation«, in: The International Journal of Press/Politics, Nr. 1, Jg. 26 (2020), S. 277-299. https://doi.org/10.1177/1940161220964780.
Pulak Mehta et al., »Can Deepfakes Be Created on a Whim?«, in: WWW ’23 Companion: Companion Proceedings of the ACM Web Conference 2023 (Austin, TX, USA: 30. Apr.-04. Mai 2023), S. 1324-1334.
Patric Raemy et al., »Deepfakes and Journalism. Normative Considerations and Implications«, in: Journalism Studies, Nr. 14, Jg. 26 (2025), S. 1724–1744. https://doi.org/10.1080/1461670X.2025.2547300.
Securityhero, »2023 State of Deepfakes. Landscape, Threats, and Impact«, auf: SecurityHero, online hier.
John Twomey et al., »What Is so Deep about Deepfakes? A Multi-Disciplinary Thematic Analysis of Academic Narratives about Deepfake Technology«, in: IEEE Transactions on Technology and Society, Nr. 1, Jg. 6 (2025), S. 64-79. https://doi.org/10.1109/TTS.2024.3493465.
Teresa Weikmann & Sophie Lecheler, »Cutting through the Hype. Understanding the Implications of Deepfakes for the Fact-Checking Actor-Network«, in: Digital Journalism, Nr. 10, Jg. 12 (2023), S. 1505–1522. https://doi.org/10.1080/21670811.2023.2194665.