Wahrnehmung von
Desinformation und KI
Inhaltsangabe
Wie (häufig) werden Desinformationen und KI wahrgenommen?
Die Meinungsforschung zeigt, dass Desinformation für große Teile der Bevölkerung ein relevantes Thema ist. In vielen Befragungen werden die Teilnehmer*innen gefragt, ob sie Sorge haben, Fakten nicht zuverlässig von Falschmeldungen unterscheiden zu können. Je nach Befragung variieren die Ergebnisse leicht, liegen jedoch mit teilweise bis vollständiger Zustimmung konstant auf einem hohen Niveau zwischen 42 (Behre et al. 2025, S. 54) und 54 Prozent (Statistisches Bundesamt).
Erhebungen im internationalen Maßstab zeichnen ein drastischeres Bild. Laut der internationalen Nachrichtenagentur Reuters (Newman et al. 2025) gab die Hälfte aller Befragten aus sechs Kontinenten und 46 Ländern an, weiterhin Bedenken zu haben, bei Online-Nachrichten zwischen Wahrheit und Falschmeldung unterscheiden zu können. Dabei sind die Bedenken in Afrika und den USA (73 Prozent) am höchsten und in Westeuropa mit 46 Prozent am geringsten. Die Bertelsmann-Stiftung wiederum kommt auf europäischer Ebene zu dem Ergebnis, dass sich knapp über die Hälfte der EU-Bürger*innen zuletzt häufig oder sehr häufig unsicher über den Wahrheitsgehalt von Informationen im Internet waren (Unzicker 2023).
Auch der Einsatz von KI in der politischen Kommunikation, also z.B. durch Politiker*innen und Parteien, wird von vielen Menschen als Risiko wahrgenommen. In einer repräsentativen Befragung für Deutschland gaben 2024 mehr als die Hälfte der Befragten an, dass sich die Glaubwürdigkeit von politischen Akteuren verringern würde, wenn sie für ihre Werbung KI einsetzten (Fechner et al. 2025, im Erscheinen). Mehr als die Hälfte stimmte eher bis voll zu, dass Wähler*innen hinters Licht geführt würden, wenn politische Werbung mithilfe von KI erstellt werde. 42 Prozent stimmen eher bis ganz zu, dass der Einsatz von KI durch politische Akteure die Demokratie schwächen würde (ebd.).
Fragt man gezielt nach der Sorge, Falschinformationen mit Täuschungsabsicht zu begegnen, fällt die Zustimmung mit rund 35 Prozent (Bernhard et al. 2024, S. 17) geringer aus als die Sorge, solche nicht zuverlässig erkennen zu können. Im Verhältnis zu Schätzungen, wie häufig Desinformation tatsächlich auftritt, sind diese Zustimmungswerte dennoch hoch. Diese Befragungsstudien lassen jedenfalls keine Rückschlüsse auf das tatsächliche Auftreten von Desinformationen zu. Nur wenige Studien koppeln Befragungen mit ergänzenden Methoden wie etwa Web-Traffic-Tracking, um zu überprüfen, ob Befragte tatsächlich Nachrichtenseiten besuchen, die als unseriös gelten (Guess et al. 2019; Guess et al. 2020). Gemessen wird vor allem die Problemwahrnehmung (Schultz et al. 2025).
Man erfährt durch die Studien also vielmehr, ob Nutzer*innen ein subjektives Misstrauen gegenüber Online-Informationen entwickeln, wie sie Risiken einschätzen und ob sie eine kritische, ängstliche oder sogar zynische Haltung gegenüber digitalen Informationen einnehmen (van der Meer 2024). Häufig wird in diesem Zusammenhang auf einen Third-person effect hingewiesen: die Vorstellung, dass andere schlechter als man selbst in der Lage seien, Falschinformationen zu erkennen (Corbu et al. 2020; Hoffmann & Boulianne 2025). Vor allem für medienpädagogische Angebote ist es wichtig zu beachten, dass das Empfinden, häufig mit irreführenden Informationen konfrontiert zu sein, mit einem generell sinkenden Vertrauen in die Medien korreliert (Stubenvoll et al. 2021; van Duyn & Collier 2018).
Julia Behre et al., Reuters Institute Digital News Report 2025. Ergebnisse für Deutschland, hgg. v. Hans-Bredow-Institut (Hamburg: Leibniz-Institut für Medienforschung | Hans-Bredow-Institut, 2025), online abrufbar hier.
Lukas Bernhard et al., Verunsicherte Öffentlichkeit. Superwahljahr 2024. Sorgen in Deutschland und den USA wegen Desinformationen, hgg. v. Bertelsmann Stiftung (Gütersloh: 2024), online abrufbar hier.
Nicoleta Corbu et al., »‘They Can’t Fool Mme, but Tthey Can Fool the Others!’ Third Person Effect and Fake News Detection«, in: European Journal of Communication, Nr. 2, Jg. 35 (2020), S. 165-180.
Hannah Fechner et al., »Innovation versus Kontrolle. Wie Bürger*innen über den Einsatz generativer künstlicher Intelligenz in der politischen Kommunikation denken«, in: Wissen schafft Demokratie. Schwerpunkt Demokratiegefährdung online, Band 18. (Jena: 2025 (im Erscheinen)).
Andrew M. Guess, Brendan Nyhan & Jason Reifler, »Exposure to Untrustworthy Websites in the 2016 US Election«, in: Nature Human Behaviour, Jg. 4 (2020), S. 472–480.
Andrew Guess, Jonathan Nagler & Joshua Tucker, »Less than you Think. Prevalence and Predictors of Fake News Dissemination on Facebook«, in: Science Advances, Nr. 1, Jg. 5 (2019) eaau4586.
Christian Pieter Hoffmann & Shelley Boulianne, »Concerns about Misinformation on Instagram in five Countries«, in: Journal of Elections, Public Opinion and Parties, Nr. 3, Jg. 35 (2025), S. 409–431.
Nic Newman et al., Reuters Institute Digital News Report 2025, hgg. v. Reuters Institute for the Study of Journalism (2025), online abrufbar hier.
Tanjev Schultz et al., »Lauter Lügen und Fake News? Misstrauen in die Medien und die Wahrnehmung von Desinformation und Verschwörungstheorien«, in: Aus Politik und Zeitgeschichte, Nr. 39 (2025), S. 4-12.
Statistisches Bundesamt, »Ein Drittel der Internetnutzenden stößt im Netz auf Hatespeech. Pressemitteilung Nr. 421 vom 27. November 2025«, auf: Destatis, 27. Nov. 2025, online hier.
Marlis Stubenvoll, Raffael Heiss & Jörg Matthes, »Media Trust Under Threat. Antecedents and Consequences of Misinformation Perceptions on Social Media«, in: International Journal of Communication, Jg. 15 (2021), S. 2765–2786.
Kai Unzicker, Desinformation. Herausforderung für die Demokratie. Einstellungen und Wahrnehmungen in Europa, hgg. v. Bertelsmann Stiftung (Gütersloh: 2023), online abrufbar hier.
Toni G. L. A. van der Meer, & Michael Hameleers, »Perceptions of Misinformation Salience. A Cross-Country Comparison of Estimations of Misinformation Prevalence and Tthird-Person Perceptions«, in: Information, Communication & Society, Nr. 4, Jg. 28 (2025), S. 575–596.
Emily Van Duyn & Jessica Collier, »Priming and Fake News. The Effects of Elite Discourse on Evaluations of News Media«, in: Mass Communication and Society, Nr. 1, Jg. 22 (2019), S. 29–48.
Wann und warum glauben Menschen Desinformationen?
Insbesondere (sozial-)psychologische Studien gehen der Frage nach, was dazu beiträgt, dass Falschinformationen geglaubt werden (z.B. Facciani 2025). Denn die Wirkung von Desinformation wird durch kognitive Verzerrungen begünstigt. Informationen werden häufig nur peripher verarbeitet, wodurch ihre Qualität weniger kritisch bewertet wird (Lewandowsky et al. 2020). Gleichzeitig werden vor allem Informationen rezipiert, die die eigene Position zu bestätigen scheinen (Confirmation Bias), und solche Informationen als korrekt eingeschätzt, die der eigenen Position entsprechen: Motivated Reasoning genannt (Mantzarlis 2018).
Feststellbar ist auch, dass gerade die Informationen, an die man sich leicht erinnern kann, von Menschen eher als wahr eingestuft werden. Dieser Mechanismus wird Availability Heuristic genannt (Mantzarlis 2018). Daraus resultieren kognitive Verzerrungen, die es erheblich erschweren, Falschinformationen im Nachhinein zu korrigieren. Einmal verinnerlichte Informationen lassen sich nur schwer revidieren, was als Continued Influence Effect (Johnson & Seifert 1994) bezeichnet wird.
Faktenchecks spielen bei der Aufklärung über Falschinformationen eine große Rolle, aber ihre Wirksamkeit bleibt begrenzt. Selbst erfolgreiches Debunking (Entlarven von Desinformation) erreicht die Nutzer*innen erst zeitlich verzögert oder teilweise gar nicht. Dabei liegt die zeitliche Verzögerung in der Natur des Faktenchecks, der erst auf Grundlage der Desinformation erstellt werden kann.
Dieser Effekt wird auch durch Plattformlogiken angetrieben, die affektive Reaktionen (Freude, Wut oder Trauer) auf emotionalisierende Inhalte oder entgrenzte Kommunikation verstärken (Sängerlaub 2020, S. 315). In bestimmten Konstellationen kann sogar ein Backfire Effect auftreten, bei dem bestehende Ansichten durch Faktenchecks eher noch verfestigt werden (Nyhan & Reifler 2010). Zusätzlich hängt die Reichweite der Faktenprüfungen auch von der Tonalität, der Plattform, auf der sie ausgespielt wird und dem Grad des Vertrauens des Publikums in Medienangebote ab.
Medienaffine Nutzer*innen nehmen Faktenprüfungen eher auf, während Personen mit geringem Medienvertrauen gegenüber etablierten Quellen häufig unzugänglich bleiben (Peter & Koch 2015; Barrera Rodriguez et al. 2017). Bei ihnen kann die Rezeption von Faktenchecks zu Abwehrreaktionen führen. Für die Konzeption pädagogischer Angebote ist es von zentraler Bedeutung, die Wirkung von Maßnahmen gegen Desinformation besser zu verstehen, um sie in wirksame Bildungsangebote übertragen zu können.
Oscar Barrera Rodriguez et al., »Facts, Alternative Facts, and Fact Checking in Times of Post-Truth Politics«, in: Journal of Public Economics (2019) http://doi.org/10.2139/ssrn.3004631.
Matthew Facciani, Misguided. Where Misinformation Starts, How It Spreads, and What to Do About It, (Columbia University Press, 2025).
H. M. Johnson & C. M. Seifert, »Sources of the Continued Influence Effect. When Misinformation in Memory Affects Later Inferences«, in: Journal of Experimental Psychology: Learning, Memory, and Cognition, Nr. 6, Jg. 20 (1994), S. 1420–1436. https://doi.org/10.1037/0278-7393.20.6.1420.
Stephan Lewandowsky, John Cook & Doug Lombardi, The Debunking Handbook 2020, (2020) online abrufbar hier. https://doi.org/10.17910/b7.1182.
Alexios Mantzarlis, »Fact-Checking 101«, in: Cherilyn Ireton & Julie Posetti (Hg.), Journalism, Fake News & Disinformation. Handbook for Journalism Education and Training (Paris: United Nations Educational Scientific and Cultural Organization, 2018), S. 81–95.
Brendan Nyhan & Jason Reifler, »When Corrections Fail. The Persistence of Political Misperceptions«, in: Political Behavior, Nr. 2, Jg. 32 (2010), S. 303–330. https://doi.org/10.1007/s11109-010-9112-2.
Christina Peter & Thomas Koch, »When Debunking Scientific Myths Fails (and When It Does Not). The Backfire Effect in the Context of Journalistic Coverage and Immediate Judgments as Prevention Strategy«, in: Science Communication, Nr. 1, Jg. 38 (2015), S. 3-25. https://doi.org/10.1177/1075547015613523.
Alexander Sängerlaub, »Fakten versus Fakes. Was Fact-Checking als Maßnahme gegen Desinformation leisten kann und was nicht«, in: Ralf Hohlfeld, Michael Harnischmacher & Lea Lehner (Hg.), Fake News und Desinformation. Herausforderungen für die vernetzte Gesellschaft und die empirische Forschung (Baden-Baden: Nomos, 2020), S. 311-325. https://doi.org/10.5771/9783748901334.
Wie nehmen junge Menschen Desinformation wahr?
Junge Menschen fühlen sich zwar mehrheitlich kompetent darin, Informationen im Internet zu finden. Weniger als die Hälfte der Jugendlichen traut sich aber zu, die gefundenen Informationen mühelos einschätzen bzw. Falschinformationen erkennen zu können (Kastorff et al. 2025, S. 6; Bitkom Research 2025). Begleitet wird dies von der Sorge, selbst auf (politische) Desinformation hereinzufallen, insbesondere angesichts des wachsenden Einflusses von Algorithmen und KI (LfM 2025, S. 34ff). Gleichzeitig ist das Misstrauen in Online-Informationen und -Nachrichten gerade bei jungen Menschen im internationalen wie Altersvergleich hoch und besonders ausgeprägt bei Schüler*innen nicht-gymnasialer Schultypen (Kastorff et al. 2025, S. 6; Behre et al. 2025, S. 49ff.).
Befragungen wie die jährlich durchgeführte JIM-Studie und die Forsa-Studie für die Landesanstalt für Medien NRW zeigen, dass sich rund zwei Drittel der jungen Menschen in Deutschland nicht nur regelmäßig mit digitaler Desinformation konfrontiert sehen, sondern auch, dass die Zahlen kontinuierlich zunehmen (Feierabend et al. 2022, 2023, 2024, 2025; LfM 2024, 2025). Dabei steigt die Wahrscheinlichkeit, dass Jugendliche im Internet auf problematische Inhalte stoßen, mit zunehmendem Alter deutlich an (LfM 2025, S. 57).
Junge Menschen denken den Befragungen zufolge bei kommunikativen Handlungen, die man der Desinformation zuordnen könnte, nicht notwendigerweise nur an politische Inhalte. Sie verbinden damit beispielsweise auch Formen des Clickbaits, der Werbung, oder auch manche Unterhaltungsformen (Materna & Brüggen 2024, S. 37 & 40ff.).
Die Zahlen zu negativen Erfahrungen mit extremen politischen Ansichten und politisch motivierter Desinformation steigen seit 2023 sprunghaft an. Auch hier liegen Untersuchungen für unterschiedliche Altersgruppen vor: konkret zu 12- bis 19-Jährigen (Feierabend et al. 2022, 2023, 2024, 2025; Kheredmand 2022) und zu 14- bis 24-Jährigen (LfM 2025). Die aktuelle JIM-Studie betont, dass sich alle Phänomenbereiche problematischer Inhalte im Netz bei jungen Menschen anhaltend in einem spürbaren Aufwärtstrend befinden (Feierabend et al. 2025, S. 55).
Bitkom Research (2025), Internetnutzer geben sich nur Note 3 für Medienkompetenz, hgg. v. Bitkom (Berlin: 2025), online abrufbar hier.
Julia Behre et al., Reuters Institute Digital News Report 2025. Ergebnisse für Deutschland, hgg. v. Hans-Bredow-Institut (Hamburg: Leibniz-Institut für Medienforschung | Hans-Bredow-Institut, 2025), online abrufbar hier.
Sabine Feierabend et al., JIM-Studie 2022. Jugend, Information, Medien. Basisuntersuchung zum Medienumgang 12- bis 19-Jähriger in Deutschland, hgg. v. Medienpädagogischer Forschungsverbund Südwest (Stuttgart: 2022), online abrufbar hier.
Sabine Feierabend et al., JIM-Studie 2023. Jugend, Information, Medien. Basisuntersuchung zum Medienumgang 12- bis 19-Jähriger in Deutschland, hgg. v. Medienpädagogischer Forschungsverbund Südwest (Stuttgart: 2023), online abrufbar hier.
Sabine Feierabend et al., JIM-Studie 2024. Jugend, Information, Medien. Basisuntersuchung zum Medienumgang 12- bis 19-Jähriger in Deutschland, hgg. v. Medienpädagogischer Forschungsverbund Südwest (Stuttgart: 2024), online abrufbar hier.
Sabine Feierabend et al., JIM-Studie 2025. Jugend, Information, Medien. Basisuntersuchung zum Medienumgang 12- bis 19-Jähriger in Deutschland, hgg. v. Medienpädagogischer Forschungsverbund Südwest (Stuttgart: 2025), online abrufbar hier.
Landesanstalt für Medien NRW, INFORMATIONSVERHALTEN WAHLEN UND DESINFORMATION 2024. Zentrale Untersuchungsergebnisse, hhg. v. Landesanstalt für Medien NRW, (Düsseldorf: 2024), online abrufbar hier.
Landesanstalt für Medien NRW, INFORMATIONSVERHALTEN WAHLEN UND DESINFORMATION 2025. Zentrale Untersuchungsergebnisse, hgg. v. Landesanstalt für Medien NRW (Düsseldorf: 2025), online abrufbar hier.
Tamara Kastorff et al. Fake News oder Fakten? Wie Jugendliche ihre digitale Informationskompetenz einschätzen und welche Rolle Schulen und Lehrkräfte dabei spielen. Erkenntnisse aus PISA 2022, (Münster: Waxmann, 2025). https://doi.org/10.25656/01:33288.
Hediye Kheredmand, JIMplus 2022. Jugend, Information, Medien. hgg. v. Medienpädagogischer Forschungsverbund Südwest (Stuttgart: 2022), online abrufbar hier.
Georg Materna & Niels Brüggen, Die Informationsräume und das Informationshandeln junger Menschen und ihr Umgang mit Desinformation. Eine medienpädagogische Untersuchung mediatisierter Sozialräume, hgg. v. JFF – Institut für Medienpädagogik in Forschung und Praxis (München: März 2024), online abrufbar hier.
Welche Themen begegnen jungen Menschen im Zusammenhang mit Desinformation?
Jugendliche nehmen Desinformation im Netz verstärkt zu gesellschaftlichen Themen wahr, die von Polarisierung geprägt sind: etwa zu Kriegsgeschehen, Politik, Migration, Klima, geschlechterspezifischen Fragen, Gesundheit und speziell Covid-19 (Kheredmand 2022; Materna & Brüggen 2024, S. 37). Grundsätzlich spielte insbesondere die Corona-Pandemie für junge Menschen eine wichtige Rolle im Zusammenhang mit der Wahrnehmung von Desinformation.
Während der Pandemie stieg die Häufigkeit, mit der – laut Selbstangabe – junge Menschen online mit Falschnachrichten in Berührung kommen, deutlich an. Laut einer Studie der Vodafone Stiftung gaben im Jahr 2020 drei Viertel der 14- bis 24-Jährigen an, mindestens einmal wöchentlich mit Falschnachrichten auf Online-Plattformen konfrontiert zu sein, was einen Anstieg um 50 Prozent innerhalb von zwei Jahren darstellt (Börsch-Supan & Thies 2020, S. 4).
Der Anteil derjenigen, die angaben, mehrmals täglich mit Falschnachrichten konfrontiert zu werden (21 Prozent), hatte sich seit dem Vorjahr, also 2019, nahezu verdoppelt (ebd.). Junge Menschen mit niedriger formaler Bildung gaben im Zusammenhang mit der Pandemie an, größere Schwierigkeiten zu haben, glaubwürdige von falschen Informationen unterscheiden zu können. Zudem äußerten sie das Bedürfnis, in der Schule mehr Unterstützung zu erhalten, um Falschinformationen zu erkennen (ebd., S. 12).
Der Bericht problematisiert zudem, dass insbesondere Schüler*innen mit formal niedrigerem Bildungshintergrund angaben, das Thema weniger im Unterricht zu behandeln als diejenigen mit höherem Bildungshintergrund. So liegt die Befürchtung nahe, dass diese Variable Unsicherheiten im Umgang mit Informationen verstärken und langfristig Risiken für die demokratische Stabilität bergen kann.
Johanna Börsch-Supan & Lars Thies, Die Jugend in der Infodemie. Eine repräsentative Befragung zum Umgang junger Menschen in Deutschland mit Falschnachrichten während der Coronakrise, hgg. v. Vodafone Stiftung Deutschland (Düsseldorf: 2020), online abrufbar hier.
Hediye Kheredmand, JIMplus 2022. Jugend, Information, Medien. hgg. v. Medienpädagogischer Forschungsverbund Südwest (Stuttgart: 2022), online abrufbar hier.
Georg Materna & Niels Brüggen, Die Informationsräume und das Informationshandeln junger Menschen und ihr Umgang mit Desinformation. Eine medienpädagogische Untersuchung mediatisierter Sozialräume, hgg. v. JFF – Institut für Medienpädagogik in Forschung und Praxis (München: März 2024), online abrufbar hier.
Wie (häufig) nehmen junge Menschen Deepfakes wahr?
Zur Häufigkeit von Deepfakes und zum Umgang damit gibt es für Deutschland und vor allem mit Blick auf Kinder und Jugendliche derzeit kaum wissenschaftliche Erkenntnisse. Erstmals 2025 in der Erhebung der Landesmedienanstalt NRW dazu befragt, gaben über zwei Drittel der befragten Jugendlichen an, dass ihnen bereits Deepfakes im Netz begegnet seien (LfM 2025, S. 56). Bei einer Umfrage von Bitkom Research (2025) schätzt die Hälfte aller befragten Internetnutzer*innen in Deutschland ab 16 Jahren, dass sie schon mindestens einmal auf Deepfakes hereingefallen seien. Diese begegnen jungen Menschen in ihrem Alltag vor allem zufällig und unbeabsichtigt bei der Nutzung von Social-Media-Plattformen, wie Studienergebnisse zu 14- bis 15-Jährigen aus Finnland zeigen (Lao et al. 2025).
Die Inhalte dieser Deepfakes adressieren überwiegend Themen aus den Bereichen prominente Personen, Humor, Bildung oder Politik und werden meist in Videoformaten und als Memes dargestellt. Immer häufiger äußern Jugendliche auch eine Konfrontation mit sexuellen Deepfake-Inhalten. Sechs Prozent der Jugendlichen in Großbritannien im Alter von 13 bis 17 Jahren gaben in einer Studie an, bereits ein Deepfake-Nacktfoto online gesehen zu haben; Zwei Prozent hatten selbst eins empfangen oder versendet (Internetmatters 2024). Jungen kamen doppelt so häufig wie Mädchen mit solchen Inhalten in Berührung. In einer weiteren Erhebung berichtete ein Viertel der Jugendlichen, bereits ein sexuelles Deepfake-Foto von einer Berühmtheit, jemandem aus dem Bekanntenkreis oder sich selbst gesehen zu haben (Girlguiding 2025).
Bei der Interpretation dieser Zahlen ist allerdings zu beachten, dass es sich um Selbsteinschätzungen handelt. Es ist möglich, dass die Befragten auf Deepfake-Inhalte stoßen, ohne sie als solche zu erkennen oder zu definieren. Ihre Beschreibungen spiegeln ihre persönliche Wahrnehmung wider. In Deutschland sind nur 22 Prozent der 16- bis 29-Jährigen überzeugt davon, ein manipuliertes Bild oder Video überhaupt erkennen zu können (Bitkom Research 2025). Gleichzeitig ist die Anwendung von KI-Tools bereits zentraler Bestandteil im Alltag von Jugendlichen, wie die aktuelle JIM-Studie zeigt: 91 Prozent der 12- bis 19-Jährigen berichten davon, mindestens eine KI-Anwendung beispielsweise für Hausaufgaben, zum Lernen oder für die Informationssuche zu nutzen (Feierabend et al. 2025a, S. 62).
Häufiger wird KI inzwischen auch für die Bilderstellung verwendet, und ein kleiner Anteil der Jugendlichen erstellt damit Musik und Videos (ebd.). Um Jugendliche für die Risiken von Deepfakes zu sensibilisieren und ihnen Kompetenzen im Umgang zu vermitteln, braucht es auch die pädagogische Begleitung, z.B. in der Familie. Erste Erkenntnisse aus den USA zur Kommunikation innerhalb der Familie zeigen jedoch, dass nur wenigen Eltern (37 Prozent) bewusst ist, dass ihre Kinder (13-18 Jahre) generative KI-Anwendungen nutzen (Madden et al. 2025).
Der Umgang von jungen Menschen mit Deepfakes ist ähnlich wie bei digitaler Desinformation meist eher beiläufig und locker: Zwar nehmen sie diese wahr, schauen sie sich aber ohne große Bedenken an, obwohl ihnen die potenziellen negativen Auswirkungen oftmals bewusst sind. Oder sie scrollen einfach weiter im Sinne einer Vermeidungsstrategie (Lao et al. 2025; Materna & Brüggen 2024).
Bitkom Research (2025), Internetnutzer geben sich nur Note 3 für Medienkompetenz, hgg. v. Bitkom (Berlin: 2025), online abrufbar hier.
Sabine Feierabend et al., JIM-Studie 2025. Jugend, Information, Medien. Basisuntersuchung zum Medienumgang 12- bis 19-Jähriger in Deutschland, hgg. v. Medienpädagogischer Forschungsverbund Südwest (Stuttgart: 2025a), online abrufbar hier.
Girlguiding, One in four teens have seen pornographic deepfakes online, hgg. v. Girlguiding (2025), online abrufbar hier.
Internet Matters, The New Face of Digital Abuse: childrens experiences of nude deepfakes, hgg. v. Internet Matters (London: 2024), online abrufbar hier.
Landesanstalt für Medien NRW, INFORMATIONSVERHALTEN WAHLEN UND DESINFORMATION 2025. Zentrale Untersuchungsergebnisse, hgg. v. Landesanstalt für Medien NRW (Düsseldorf: 2025), online abrufbar hier.
Yucong Lao, Noora Hirvonen, Stefan Larsson (2025). »Everyday encounters with deepfakes: young people’s media and information literacy practices with AI-generated media«, in: Journal of Documentation, Nr. 7, Jg. 81 (2025), S. 216-235. https://doi.org/10.1108/JD-01-2025-0007.
Mary Madden, Angela Calvin, Alexa Hasse, Amanda Lenhart (2024), The dawn of the AI era: Teens, parents, and the adoption of generative AI at home and school, hgg. v. Common Sense (San Francisco, CA: 2024), online abrufbar hier.
Welche politischen Folgen gehen mit der Verbreitung von Deepfakes einher?
In der Diskussion um Deepfakes wird häufig angenommen, dass das Vertrauen der Öffentlichkeit in die Authentizität von Ton-, Videoaufnahmen und Fotos geschwächt werden könnte. Insbesondere Videoaufnahmen mit Ton galten gegenüber anderen Medienformaten lange als weniger leicht manipulierbar und daher als besonders glaubwürdige Belege. Mit den technischen Möglichkeiten, Deepfakes zu erstellen, droht dieses Vertrauen jedoch zu bröckeln (Twomey et al. 2025). In diesem Zusammenhang spricht man auch von dem Phänomen der Liar’s Dividend (Schiff et al. 2022). Es besagt, dass bereits die bloße Möglichkeit einer Fälschung zu tiefgreifenden epistemischen Zweifeln führen kann, da lügende Akteure sich darauf berufen können, kompromittierende Aufnahmen seien Deepfakes. Die Existenz realistisch wirkender Deepfakes eröffnet somit eine neue Form der Abstreitbarkeit und schwächt das Vertrauen in audiovisuelle Beweismittel insgesamt.
Übersichtsarbeiten zu Desinformationen legen jedoch nahe, dass es bisher nur wenige gesicherte Befunde zu den tatsächlichen Auswirkungen von Deepfakes gibt (Murphy et al. 2023). Die Mainzer Langzeitstudie zu Medienvertrauen stellt allerdings insgesamt ein schwindendes Vertrauen in soziale Medien fest. Inwiefern der Einsatz von Deepfakes dabei eine Rolle spielt, kann sie aber nicht erklären (Fawzi et al. 2025).
Der Philosoph Habgood-Coote (2023) wiederum kritisiert Annahmen, die von einer »epistemischen Apokalypse« durch Deepfakes ausgehen. Er argumentiert, dass Vertrauen in audiovisuelle Belege schon immer durch soziale Normen, institutionelle Kontexte und Quelleinschätzungen vermittelt wurde und dass die Möglichkeit der Manipulation kein neues Phänomen darstellt. Die eigentliche Herausforderung liege demnach nicht primär in der Technologie selbst, sondern in der Art und Weise, wie Gesellschaften Vertrauen in Medieninhalte herstellen.
So zeigte ein Umfrageexperiment, dass auch gut gemeinte Warnhinweise über Deepfakes unbeabsichtigt zur Delegitimierung wahrer Informationen beitragen können (Ternovski et al. 2022). Ein systematisches Review schließt sich dieser Argumentation an und hebt zudem einen sogenannten »Truth Decay« hervor (Oliullah & Murtuza 2025, S. 31). Dieser Effekt legt ebenfalls nahe, dass die bloße Existenz von Deepfakes auch Vertrauen in andere, nicht manipulierte Inhalte schwächt und problematisiert vor diesem Hintergrund, dass Warnungen vor Deepfakes im Allgemeinen die Skepsis in Medieninhalte erhöhen.
Nayla Fawzi et al., »Stabiles Medienvertrauen auch in Zeiten politischer Umbrüche. Mainzer Langzeitstudie Medienvertrauen 2024«, in: Media Perspektiven, Nr. 13 (2025), online abrufbar hier.
Joshua Habgood-Coote, »Deepfakes and the Epistemic Apocalypse«, in: Synthese, Jg. 201 (2023), 103. https://doi.org/10.1007/s11229-023-04097-3.
Kaylyn Jackson Schiff, Daniel S. Schiff & Natália S. Bueno, »The Liar’s Dividend. Can Politicians Claim Misinformation to Evade Accountability?«, in: American Political Science Review, Nr. 1, Jg. 119 (2025), S. 71-90. https://doi.org/10.1017/S0003055423001454.
Gillian Murphy et al., »What Do We Study when We Study Misinformation? A Scoping Review of Experimental Research (2016-2022)«, in: Harvard Kennedy School (HKS) Misinformation Review, Nr. 6, Jg. 4 (2023). https://doi.org/10.37016/mr-2020-130.
Md Oliullah & H. M. Murtuza, »Exploring the Impact of Deepfakes on Cognitive Processing in Political Contexts. A Systematic Review«, auf: SSRN (2025). http://dx.doi.org/10.2139/ssrn.5390735.
John Ternovski, Joshua Kalla & P. M. Aronow, »The Negative Consequences of Informing Voters about Deepfakes. Evidence from two Survey Experiments«, in: Journal of Online Trust and Safety, Nr. 2, Jg. 1 (2022), 28. https://doi.org/10.54501/jots.v1i2.28.
John Twomey et al., »What Is so Deep about Deepfakes? A Multi-Disciplinary Thematic Analysis of Academic Narratives about Deepfake Technology«, in: IEEE Transactions on Technology and Society, Nr. 1, Jg. 6 (2025), S. 64-79. https://doi.org/10.1109/TTS.2024.3493465.