Kompetenzen im Umgang
mit Desinformation und KI
Inhaltsangabe
Welche Kompetenzen brauchen Menschen im Umgang mit KI und Desinformation?
Ein Weg, gesellschaftlichen und politischen Folgen von Desinformation, KI und Deepfakes zu begegnen oder ihnen vorzubeugen, besteht darin, möglichst viele Menschen zu einem kompetenten, kritisch-reflexiven Umgang mit diesen Phänomenen zu befähigen. Die erforderlichen Fähigkeiten werden im Zusammenhang mit sogenannten Kompetenzmodellen diskutiert. Diese Kompetenzmodelle können prinzipiell für verschiedene medienpädagogische Problemstellungen Orientierung bieten. Für die Phänomene Desinformation und KI verbinden sie sich mit den spezifischen Anforderungen. Diese lassen sich in mehrere überlappende Dimensionen gliedern:
Erstens ist da eine medientechnische und kulturelle Dimension, bei der es darum geht, zu verstehen, wie Algorithmen, KI-Systeme und Plattformen funktionieren und welche Inhalte mit deren Mithilfe produziert, verbreitet und rezipiert werden (und welche nicht). Dabei geht es auch um Wissen darüber, wie man synthetische Medieninhalte erzeugen und erkennen kann.
Zweitens zu nennen ist eine politisch-gesellschaftliche Dimension, bei der es um die Analyse von Interessen, Normen, Regeln, Gesetze, aber auch Macht- und Ungleichheitsverhältnisse, Herrschaftseffekte und Fragen demokratischer Teilhabe geht. Hier gilt es zu verstehen, wer anhand welcher Interessen und Regeln darüber entscheidet, welche Inhalte im Netz stehen dürfen und welche nicht. Ausgehend davon kann gefragt werden, inwiefern auch Nutzende diese Regeln mitgestalten können.
Drittens gibt es eine informationell-journalistische Dimension, die Kommunikation in nachrichtlichen (Online-)Diskursen und ihre Folgen betrachtet. Hier geht es um Wissen darüber, wie Daten, Informationen, Nachrichten, Wahrheit, Glaubwürdigkeit und Medienvertrauen hergestellt werden, professionell, institutionell oder anderweitig. Auch die Glaubwürdigkeit von Inhalten zu bewerten und unglaubwürdige Inhalte meiden zu lernen, gehört dazu.
Viertens: die selbstreflexive Dimension. Hier wird gefragt, was die vorherigen Dimensionen mit der eigenen Person zu tun haben. Die eigenen Wahrnehmungen, Gefühle, Denk- und Handlungsweisen sowie die Frage, wie man vor diesem Hintergrund mit anderen interagiert, sollen reflektiert werden. Daran schließen sich auch Überlegungen dazu an, wie man wahrnehmen, denken, handeln, fühlen und interagieren möchte oder sollte. In der selbstreflexiven Dimension kommt eine übergreifende Vorstellung von Bildung – verstanden als Transformation von Relationen zu sich selbst, zur Welt und zu Anderen – zum Tragen. Identitäten, Anerkennung und Zugehörigkeiten werden hiervon ebenso berührt wie etwa Einstellungen und Haltungen zu Demokratie und Vielfalt.
Welche Kompetenzbegriffe und -modelle gibt es und wie verhalten sie sich zueinander?
Im deutschsprachigen Medienkompetenz-Diskurs gilt weitestgehend die Grundannahme, dass alle Menschen in der Lage seien, medienbezogene Fähigkeiten in Bereichen wie Wissen, Nutzung, Gestaltung und Kritik zu erwerben und Handlungsfähigkeit zu erlangen (Schmitt et al. 2020, S. 332; Baacke 1996). Dies beinhaltet, dass diese teilweise ohne pädagogische Begleitung in informellen Lern- und Bildungsprozessen erworben werden und werden können (Moser 2010, S. 36) sowie pädagogische Begleitung beim Erwerb wichtig ist (Baacke, 1996); insbesondere, um kritische Reflexivität zu stärken und digitale Ungleichheiten auszugleichen (Zillien 2018; Iske et al. 2007). Im Unterschied zu frühen Modellen von Medienkompetenz wird mittlerweile der affektiven Dimension ein systematischer Platz zugewiesen (Digitales Deutschland 2020, S. 5).
Im englischsprachigen Diskurs wird häufig von »Media and Information Literacy« (MIL) gesprochen. Während diese häufig als direkte Entsprechung von Medien- und Informationskompetenz verwendet wird, gibt es im Detail Unterschiede (Hug 2012). MIL wird u.a. verstanden als »Kompetenzen und Fähigkeiten, den eigenen Weg durch Informationsökosysteme zu navigieren« (Mansell et al. 2025, S. 102; Übers. d. Verf.). Media Literacy bezeichnet meist die Fähigkeit, Medien zu nutzen, zu verstehen und selbst zu gestalten. Teildimensionen von Medienkompetenz oder MIL können auf antidemokratisches und menschenverachtendes Medienhandeln bezogen werden (Dander 2024; Mansell et al. 2025, S. 102).
Umso bedeutsamer sind die Dimensionen (Medien-)Kritik und (Medien-)Ethik, denen in den genannten deutsch- und englischsprachigen Konzepten eine tragende Rolle zukommt. Wenngleich Medienkritik und gesellschaftspolitische Aspekte in vielen Modellen systematisch einbezogen sind, betonen Konzepte wie »Critical Media Literacy« eine kritische Auseinandersetzung mit Machtverhältnissen und Momente von Empowerment (bezogen auf Desinformation, vgl. Soßdorf et al. 2024, S. 59).
Information Literacy ist stärker als Media Literacy auf Medieninhalte ausgerichtet (ebd., S. 103), betont das Finden und Bewerten von Informationen und wird auf (Des-)Informationen allgemein, auf wissenschaftliche oder journalistische Inhalte bezogen. Informationskompetenz kann demnach »als Teil einer übergeordneten, breiteren Medienkompetenz gesehen werden« (Kastorff et al. 2025, S. 4).
Nachrichtenkompetenz bezieht sich, noch spezifischer, auf den Umgang mit Nachrichten, also mit journalistischen Inhalten. Hasebrink et al. (2021, S. 15) gehen jedoch über ein enges Verständnis im Sinne von Können und Wissen hinaus und beziehen etwa Motivationslagen und ein Verständnis für die Bedeutung von Nachrichten für Meinungsbildung mit ein. Nachrichtenkompetenz in diesem Sinne »umschließt damit die Gesamtheit der Einstellungen und Praktiken, mit denen sich eine Person mit gesellschaftlich relevanten Angelegenheiten in Beziehung setzt« (ebd.).
Herausforderungen wie Desinformation kann im Rahmen politischer Medienbildung etwa mit einer »politischen Analyse- und Urteilsfähigkeit« bzw. mit »Recherche- und Quellenprüfungskompetenz« begegnet werden (Heldt 2022, S. 3f.). Diese Fähigkeiten ermöglichen eine Beurteilung von Medieninhalten oder, sich über tragfähige Quellen die nötigen Zusatz-Informationen zu verschaffen. Grundlagen zur Identifikation von und Sensibilisierung für Ungleichheitslagen, gruppenbezogene Menschenfeindlichkeit und Exklusionsverhältnisse sind für politische Medienbildung je nach Alter zentral (ebd., S. 5f.). Für Desinformation sind diese Dimensionen bedeutsam, weil zum einen nicht alle Menschen gleich kompetent im Umgang mit ihr sind (Austin et al. 2021). Zum anderen sind marginalisierte Personengruppen in spezifischer Weise von Desinformationskampagnen betroffen und somit besonders vulnerabel (Saadati et al. 2024, S. 892f.; Melo-Pfeifer & Gertz 2022).
In ihrer Pilotstudie zu KI-Kompetenz-Modellen aus Perspektive der politischen Bildung nehmen Kindlinger und Abs (2025) das Modell AI Competency Framework for Students als einen Ausgangspunkt (Miao et al. 2024, S. 18-26). Dieses thematisiert Desinformation im Zusammenhang mit KI explizit (ebd., S. 39f.). Menschenwürde, Menschenrechte und ethische Aspekte werden gleichwertig mit technischen Dimensionen abgebildet. Kindlinger und Abs sehen darin eine hohe Anschlussfähigkeit an politische Kompetenzmodelle. Sie empfehlen jedoch eine stärkere Berücksichtigung von Aspekten politischer Bildung wie Empathie, Konfliktlösung und interkulturellen Aspekten (Kindlinger & Abs 2025, S. 27).
Aus Sicht von Medienbildung werfen Modelle von KI-Kompetenz im Verhältnis zu Medienkompetenz(förderung) zu klärende Fragen auf: Denn KI wird in großen Bereichen der Gesellschaft eingesetzt, nicht nur in Medienkommunikation, weswegen KI-, Daten- oder Digitalkompetenz nicht vollständig von Medienkompetenz eingefasst sei (Büsch 2024, S. 13f.). Auch sind nicht alle Aspekte von KI-Systemen für Einzelpersonen transparent und zugänglich und die mediengestalterische, produktive Anwendung ist nur eingeschränkt möglich: prompten und KI-generierte Inhalte erkennen, ja (Uhlenbrock 2024), Tiefenstrukturen von LLMs, großen Sprachmodellen, verstehen und verändern hingegen eher nicht (Büsch 2024, S. 14; Knaus 2024, S. 27).
Dieter Baacke, »Medienkompetenz – Begrifflichkeit und sozialer Wandel«, in: Antje von Rein (Hg.), Medienkompetenz als Schlüsselbegriff (Bad Heilbrunn: Klinkhardt, 1996), S. 112–124.
Andreas Büsch, »Das Ende des Projekts Aufklärung? KI als Herausforderung für die Medienpädagogik«, in: merz – medien+erziehung, Nr. 3, Jg. 68 (2024), S. 10–17.
Valentin Dander, »Medienbildung und der digitale Faschismus. Normative Anfragen an medienpädagogische Kernkonzepte«, in: Sabrina Schenk (Hg.), Populismus und Protest. Demokratische Öffentlichkeiten und Medienbildung in Zeiten von Rechtsextremismus und Digitalisierung (Opladen: Barbara Budrich, 2024), S. 149–174.
Digitales Deutschland. Rahmenkonzept, hgg. v. JFF – Institut für Medienpädagogik in Forschung und Praxis (Feb. 2020), online abrufbar hier.
Uwe Hasebrink, Sascha Hölig & Leonie Wunderlich, #UseTheNews. Studie zur Nachrichtenkompetenz Jugendlicher und junger Erwachsener in der digitalen Medienwelt (Arbeitspapiere des Hans-Bredow-Instituts | Projektergebnisse Nr. 55), hgg. v. Hans-Bredow-Institut (Hamburg: Apr. 2021), online abrufbar hier. https://doi.org/10.21241/ssoar.72822.
Inken Heldt, »Digitalisierung, Mediatisierung, Demokratie. Politische Medienbildung als Anliegen und Auftrag der Erwachsenenbildung«, in: Magazin erwachsenenbildung.at, Nr. 44/45 (2022), 13. https://doi.org/10.25656/01:24479.
Theo Hug, »Media Competence and visual Literacy – towards Considerations beyond Literacies«, in: Periodica Polytechnica Social and Management Sciences, Nr. 2, Jg. 20 (2012), S. 115–125. https://doi.org/10.3311/pp.so.2012-2.06.
Stefan Iske et al., »Virtuelle Ungleichheit und informelle Bildung. Eine empirische Analyse der Internetnutzung Jugendlicher und ihre Bedeutung für Bildung und gesellschaftliche Teilhabe«, in: Kompetenzzentrum Informelle Bildung (Hg.), Grenzenlose Cyberwelt? Zum Verhältnis von digitaler Ungleichheit und neuen Bildungszugängen für Jugendliche (Wiesbaden: VS Verlag für Sozialwissenschaften, 2007), S. 65–91. http://dx.doi.org/10.1007/978-3-531-90519-8_4.
Tamara Kastorff et al., Fake News oder Fakten? Wie Jugendliche ihre digitale Informationskompetenz einschätzen und welche Rolle Schulen und Lehrkräfte dabei spielen. Erkenntnisse aus PISA 2022, (Münster: Waxmann, 2025). https://doi.org/10.25656/01:33288.
Marcus Kindlinger & Hermann Josef Abs, Entwicklung eines KI-Kompetenzprofils aus der Perspektive der politischen Bildung, hgg. v. Peace Research Institute Frankfurt – Leibniz-Institut für Friedens- und Konfliktforschung (Frankfurt/Main: 2025). https://doi.org/10.48809/PREVALSTU2502.
Thomas Knaus, »Warum KI kein Hype ist und die Medienpädagogik sich damit befassen sollte«, in: merz – medien+erziehung, Nr. 3, Jg. 68 (2024), S. 10–17. https://doi.org/10.25656/01:30093.
Robin Mansell et al., Information Ecosystem and Troubled Democracy. A Global Synthesis of the State of Knowledge on News Media, AI and Data Governance, hgg. v. Observatory on Information and Democracy (2025), online abrufbar hier.
Sílvia Melo-Pfeifer & Helena Dedecek Gertz, »Transforming Disinformation on Minorities Into a Pedagogical Resource. Towards a Critical Intercultural News Literacy«, in: Media and Communication, Nr. 4 Jg. 10 (2022). https://doi.org/10.17645/mac.v10i4.5708.
Fengchun Miao, Kelly Shiohira & Natalie Lao, AI Competency Framework for Students, hgg. v. UNESCO (Paris: 2024), online abrufbar hier. https://doi.org/10.54675/JKJB9835.
Farzaneh Saadati, Isun Chehreh & Ebrahim Ansari, »The Role of Social Media Platforms in Spreading Misinformation Targeting Specific Racial and Ethnic Groups. A Brief Review«, in: Proceedings of the 36th Conference of Open Innovations Association FRUCT (Helsinki, Finland: 2024), S. 892-902. https://www.fruct.org/files/publications/volume-36/acm36/Saa.pdf.
Josephine B. Schmitt, Julian Ernst & Diana Rieger, »„Fake News“ und Propaganda – Wirkung und Prävention durch die Förderung von Medienkritikfähigkeit«, in: Ralf Hohlfeld, Michael Harnischmacher u.a. (Hg.), Fake News und Desinformation (Baden-Baden: Nomos, 2020), S. 327–340. https://doi.org/10.5771/9783748901334-327.
Anna Soßdorf et al., »Literacies Against Fake News. Examining the Role of Data Literacy and Critical Media Literacy to Counteract Disinformation«, in: MedienPädagogik: Zeitschrift Für Theorie Und Praxis Der Medienbildung, Nr. 59 (2024), S. 55–76. https://doi.org/10.21240/mpaed/59/2024.04.10.X.
Lea Uhlenbrock, »KI-generierte Bilder, Texte und Videos erkennen«, in: merz – medien+erziehung, Nr. 3, Jg. 68 (2024), S. 34–37. https://doi.org/10.21240/merz/2024.3.12.
Erica Weintraub Austin, Porismita Borah & Shawn Domgaard, »COVID-19 Disinformation and political Engagement among Communities of Color. The Role of Media Literacy«, in: Harvard Kennedy School Misinformation Review (März 2021). https://doi.org/10.37016/mr-2020-58.
Nicole Zillien, »Soziale Ungleichheiten«, in: Dagmar Hoffmann & Rainer Winter (Hg.), Mediensoziologie. Handbuch für Wissenschaft und Studium (Nomos, 2018), S. 304–310.
Wie gut erkennen Menschen Desinformation?
Obwohl die meisten Menschen für Desinformation sensibilisiert sind und um mögliche Gefahren wissen, erkennen viele Desinformation in ihrem Alltag nur eingeschränkt: Die tatsächlichen Kompetenzen im Umgang mit Desinformation sind begrenzt. Es gibt Befragungen darüber, wie sicher sich Menschen im Umgang mit Desinformation fühlen. Beispielsweise liefert die Internationale Hochschule aktuelle Zahlen für Deutschland: Etwas mehr als die Hälfte der Befragten gab an, »Fake News« schon einmal erkannt zu haben, allerdings erst nachdem sie die Information überprüft hatten (IU Internationale Hochschule 2025). Ein Drittel der Befragten gab zudem an, bereits Falschinformationen geglaubt zu haben. Laut den Befragten werden am häufigsten solche Informationen durch Vergleiche mit anderen Quellen oder durch das Aufdecken von Widersprüchen erkannt. Aber ob die so erhobene Selbsteinschätzung sich mit den tatsächlichen Kompetenzen deckt, lässt sich nur durch andere Methoden klären.
In einer OECD-Studie, für die Personen aus 21 Ländern befragt wurden, zeigte sich über die Hälfte der Befragten ziemlich bis sehr zuversichtlich, falsche oder irreführende Informationen erkennen zu können. Die Studie stellte allerdings fest, dass die Befragten dazu neigen, die dafür benötigten Fähigkeiten bei sich zu überschätzen (OECD 2024). Tendenziell steigt laut der Studie das Selbstvertrauen mit dem Bildungs- und Einkommensniveau und sinkt mit zunehmendem Alter. Außerdem zeigen Männer mehr Selbstvertrauen in die eigenen Fähigkeiten als Frauen. Als zentrale Erkenntnis der Studie gilt aber, dass die Selbsteinschätzung der Befragten kein verlässlicher Indikator für die tatsächliche Fähigkeit zur Erkennung von falschen oder irreführenden Informationen ist: Menschen mit wenig Vertrauen in ihre Fähigkeiten schneiden in der Studie beim Erkennen von Falschinformationen genauso gut ab wie diejenigen, die sich diesbezüglich selbstsicher einschätzen.
Im Kontrast dazu stehen die Befunde einer weiteren internationalen Vergleichsstudie, die zu dem Ergebnis kommt, dass Selbsteinschätzung und Fähigkeiten durchaus miteinander in Beziehung stehen: Frauen würden ebenso wie Jugendliche (1997–2012) ihre Fähigkeiten im Erkennen von Fehlinformationen vergleichsweise präzise einschätzen, wobei sehr konservative Personen am schlechtesten abschnitten (Kyrychenko et al. 2025). Die Studie untersuchte auch die Anfälligkeit der allgemeinen Bevölkerung, Falschinformationen für wahr zu halten und konnte nachweisen, dass die Generation Z (1997–2012), nicht-männliche, weniger gebildete und konservativere Personen anfälliger für Fehlinformationen waren.
Doch wie gut erkennen Menschen Desinformation nun? In der OECD-Studie schätzen die Befragten durchschnittlich in 60 Prozent der Fälle richtig ein, ob es sich um eine falsche oder wahre Information handelt. Außerdem waren KI-generierte Inhalte in ihrem Wahrheitsgehalt von den Befragten leichter zu beurteilen als Inhalte, die von Menschen erstellt wurden.
IU Internationale Hochschule, Fakt oder Fake? Medienkompetenz in Deutschland, hgg. v. IU Internationale Hochschule (2025), online abrufbar hier.
Yara Kyrychenko et al., »Profiling Misinformation Susceptibility«, in: Personality and Individual Differences, Jg. 241 (2025), 113177. https://doi.org/10.1016/j.paid.2025.113177.
OECD, The OECD Truth Quest Survey. Methodology and Findings, OECD Digital Economy Papers, No. 369 (2024). https://doi.org/10.1787/92a94c0f-en.
Welche Strategien halten Menschen für wirksam gegen Desinformation?
Obwohl Befragte in Studien immer wieder angeben, das Überprüfen von Informationen im Internet sei wichtig, kommt eine europäische Studie der Bertelsmann Stiftung zu dem Ergebnis, dass laut eigenen Angaben weniger als die Hälfte der Europäer*innen dies aktiv praktiziere. Noch weniger gaben an, Falschinformationen in sozialen Medien zu melden oder in Kommentaren darauf hinzuweisen (Unzicker 2023). Laut Studie gaben neben den polnischen Befragten vor allem die Deutschen an, sehr aktiv bei der Überprüfung von Informationen zu sein. Knapp die Hälfte der deutschen Befragten gibt an, in jüngster Zeit eine Information nachrecherchiert zu haben (ebd.).
Diese Befunde decken sich mit Zahlen aus anderen Erhebungen zur deutschen Bevölkerung: Über die Hälfte der Befragten in Deutschland gibt an, beim Verdacht auf politische Desinformation schon einmal die Nachricht mit anderen Informationen aus dem Internet verglichen zu haben. Etwas weniger als die Hälfte gibt zudem an, sich jeweils näher mit der Nachricht befasst oder die Quelle der Nachricht überprüft zu haben (LfM 2025, S. 38). Eine weitere Befragung kommt sogar zu dem Ergebnis, dass es »für die Mehrheit zum Alltag« gehöre, Informationen zum aktuellen gesellschaftlichen und politischen Geschehen auf ihre Richtigkeit zu prüfen, etwa durch den Vergleich mit anderen Quellen oder durch (eigene) Faktenchecks (IU Internationale Hochschule 2025). 52 Prozent stimmten zu, dies immer oder häufig zu tun, weitere 34 Prozent tun dies zumindest manchmal (ebd.).
Das Überprüfen von Informationen im Internet auf ihre Richtigkeit wird also als wichtige Strategie gegen (politische) Desinformation gesehen. Auch in einer Befragung der Landesanstalt für Medien NRW stimmten dem 36 Prozent der Befragten aus ost- bzw. 53 Prozent aus westdeutschen Bundesländern zu. Fact-Checking-Webseiten spielten dennoch nur eine untergeordnete Rolle: Weniger als ein Fünftel der Befragten gab an, eine solche schon einmal im Zusammenhang mit politischer Desinformation aufgerufen zu haben (ebd. S. 38).
Die Befragten gaben darüber hinaus an, dass auch die Sperrung der Absender solcher Inhalte sowie die Strafverfolgung bei bewusster Verbreitung von Desinformation und die Verwendung von Warnhinweisen wirkungsvolle Strategien im Umgang mit politisch motivierten Desinformationen seien (LfM 2025, S. 41). Den Einsatz Künstlicher Intelligenz, um Desinformation zu identifizieren, hielten immerhin 30 Prozent der Befragten für wirksam (ebd. S. 42).
IU Internationale Hochschule, Fakt oder Fake? Medienkompetenz in Deutschland, hgg. v. IU Internationale Hochschule (2025), online abrufbar hier.
Kai Unzicker, Desinformation. Herausforderung für die Demokratie. Einstellungen und Wahrnehmungen in Europa, hgg. v. Bertelsmann Stiftung (Gütersloh: 2023), online abrufbar hier.
Landesanstalt für Medien NRW, INFORMATIONSVERHALTEN WAHLEN UND DESINFORMATION 2025. Zentrale Untersuchungsergebnisse, hgg. v. Landesanstalt für Medien NRW (Düsseldorf: 2025), online abrufbar hier.
Wie gut können Menschen Deepfakes erkennen?
Um zu messen, wie gut Menschen darin sind, Deepfakes als solche zu erkennen, werden in der Forschung häufig experimentelle Online-Umfragen durchgeführt. Dabei fällt es vor allem Proband*innen, die mit von modernen Text-to-Speech-Generatoren erstellten Deepfakes konfrontiert werden, durchschnittlich schwer, Fakes als solche zu erkennen (Groh 2024; Alali & Theodorakopoulos 2025; Barrington et al. 2025). Eine Umfrage der Otto-Brenner-Stiftung zeigt, dass die Befragten Probleme haben, Fake-Inhalte von realen Fotografien zu unterscheiden (Kruschinski et al. 2025).
Zu ähnlichen Ergebnissen kommt eine Studie, die sich mit Videos befasst, die unter Einsatz von Deep-Learning-Modellen erstellt wurden (Lovato 2024). Ein weiteres Experiment, das verschiedene Akteure im Bildungskontext adressiert, kam in Bezug auf Videos zu dem Ergebnis, dass die Befragten nicht zuverlässig in der Lage sind, Deepfake-Videos von echten Aufnahmen zu unterscheiden (Doss et al. 2023).
Andere Fallstudien schließen beispielsweise aus Kommentaren unter Inhalten in sozialen Medien, dass User*innen Deepfakes im politischen Kontext für authentisch halten (Momeni 2024). Da dabei User*innen, die den Deepfake zwar wahrgenommen, aber nicht kommentiert haben, nicht mit betrachtet werden, ist die Aussagekraft allerdings begrenzt.
Insgesamt gibt es viele Leerstellen in der Forschung dazu, wie gut Menschen Deepfakes erkennen können. Wenige Arbeiten befassen sich mit unmittelbaren Auswirkungen von Deepfakes. Bezüge zu anderen Formen von Desinformation werden selten hergestellt. Die Evidenz ist insgesamt begrenzt (Ching et al. 2025).
Abdulazeez Alali & George Theodorakopoulos, »Partial Fake Speech Attacks in the Real World Using Deepfake Audio«, in: Journal of Cybersecurity and Privacy, Nr. 1, Jg. 5 (2025), 6. https://doi.org/10.3390/jcp5010006.
Sarah Barrington, Emily A. Cooper & Hany Farid, »People Are Poorly Equipped to Detect AI-powered Voice Clones«, auf: arXiv (2025), arXiv:2410.03791v2.
Didier Ching et al., »Can Deepfakes Manipulate Us? Assessing the Evidence via a Critical Scoping Review«, in: PLoS One Nr. 5, Jg. 20 (2025), e0320124. https://doi.org/10.1371/journal.pone.0320124.
Christopher Doss et al., »Deepfakes and Scientific Knowledge Dissemination«, in: Scientific Reports, Jg. 13 (2023), 13429. https://doi.org/10.1038/s41598-023-39944-3.
Matthew Groh et al., »Human Detection of Political Speech Deepfakes across Transcripts, Audio, and Video«, in: Nature Communications, Nr. 1, Jg. 15 (2024), 7629. https://doi.org/10.1038/s41467-024-51998-z.
Simon Kruschinski et al., Künstliche Intelligenz in politischen Kampagnen. Akzeptanz, Wahrnehmung und Wirkung, hgg. v. Otto Brenner Stiftung (Frankfurt/Main: 2025), online abrufbar hier.
Juniper Lovato et al., »Diverse Misinformation. Impacts of Human Biases on Detection of Deepfakes on Networks«, in: npj Complexity, Jg. 1 (2024), 5. https://doi.org/10.1038/s44260-024-00006-y.
Mina Momeni, »Artificial Intelligence and Political Deepfakes. Shaping Citizen Perceptions through Misinformation«, in: Journal of Creative Communications, Nr. 1, Jg. 20 (2024), S. 41-56. https://doi.org/10.1177/09732586241277335.
Wie kompetent reagieren junge Menschen auf Desinformationen?
Eine US-Studie zeigt, dass junge Menschen (1997–2012) vergleichsweise anfällig für Falschinformationen sind (Kyrychenko et al. 2025; vgl. Sanders 2023 für 18- bis 44-Jährige). Dabei mussten die Befragten echte und gefälschte Schlagzeilen erkennen, wobei die Jüngeren jeweils schlechter abschnitten.
Im Umgang mit Desinformation stellt der Vergleich verschiedener Online-Quellen wie bei Erwachsenen auch bei Jugendlichen eine zentrale Strategie dar. In einigen Befragungen gaben Jugendliche mehrheitlich an, Inhalte online mit anderen Informationen abzugleichen, aber auch Freund*innen und Peers zur Überprüfung heranzuziehen (Kastorff et al. 2025, S. 6; LfM 2025, S. 40). Deutlich häufiger als ältere Altersgruppen geben junge Menschen im Alter von 14 bis 24 Jahren aber an, dass sie sich näher mit Nachrichten befassen würden, die politisch motivierte Desinformation beinhalten (69 Prozent), oder auf Desinformation antworten würden, um sie zu kritisieren (26 Prozent) (LfM 2025, S. 40).
Ein anderes Bild zeichnet hingegen eine qualitative Studie des JFF, die das Informationshandeln junger Menschen untersuchte: Desinformation begegnet den 14- bis 24-Jährigen im Kontext ihrer alltäglichen Mediennutzungsroutinen, die vor allem auf Sozialen Medien wie TikTok, Instagram und YouTube, Suchmaschinen und Messenger-Diensten wie WhatsApp, Signal oder Discord basiert.
Im Unterschied zu den oben erwähnten Studien, gaben die Interviewten, nach dem Umgang mit Desinformation gefragt, nur selten an, verdächtig erscheinende Informationen selbstständig zu überprüfen (Materna & Brüggen 2024, S. 37). Stattdessen beschäftigen sie sich entweder gar nicht mit diesen Informationen oder bewerten den Inhalt auf Basis des eigenen Vorwissens. Am ehesten wenden die Jugendlichen hier eine Vermeidungsstrategie an, indem sie z.B. versuchen, die algorithmische Sortierung auf der Plattform zu beeinflussen. Dazu werden unbeliebte und zweifelhafte Inhalte übersprungen oder, wenn möglich, der Plattform rückgemeldet, an einem Inhalt nicht interessiert zu sein (ebd. S. 40). Selten werden Inhalte der Plattform gemeldet. In vereinzelten Fällen reagieren die Interviewten mit Gegenargumenten, Beleidigungen und eigenen Desinformationen, insbesondere wenn »die (Des-)Informationen identitätsrelevante Dimensionen der interviewten Personen berührten«, wie beispielsweise Veröffentlichungen zu Transgeschlechtlichkeit oder Aufrufe aus der Querdenken-Bewegung (ebd. S. 40-42). Unterschiede hinsichtlich der Ergebnisse zwischen größeren Befragungen und qualitativen Interviews können auf unterschiedliche Gründe zurückgeführt werden. Hier spielen sowohl das Forschungssetting als auch Fragen der sozialen Erwünschtheit eine wichtige Rolle.
Was die Verbreitung von Online-Informationen angeht, so gibt die Hälfte bis zwei Drittel der jungen Menschen in Befragungen an, Inhalte vor dem Teilen in sozialen Netzwerken auf ihre Richtigkeit zu überprüfen (Kastorff et al. 2025, S. 8; Bitkom Research 2025). Eine Sonderauswertung der PISA-Studie 2022 für 15-Jährige zeigt auch, dass deutsche Schüler*innen im internationalen Vergleich bei den digitalen Kompetenzen und dem Umgang mit verdächtigen Informationen im Netz signifikant unter dem OECD-Durchschnitt bleiben (Kastorff et al. 2025).
Die große Mehrheit der Jugendlichen hat aber ein Interesse daran oder sieht es als Pflicht der Schulen an, ihnen den Umgang mit digitalen Medien und das Erkennen von Desinformation zu vermitteln (Albert et al. 2024, S. 23; Feierabend et al. 2024; Börsch-Supan & Thies 2020).
Mathias Albert et al., Jugend 2024. 19. Shell Jugendstudie. Zusammenfassung, hgg. v. Shell plc (Weinheim: Beltz, 2024), online abrufbar hier.
Bitkom Research (2025), Internetnutzer geben sich nur Note 3 für Medienkompetenz, hgg. v. Bitkom (Berlin: 2025), online abrufbar hier.
Johanna Börsch-Supan & Lars Thies, Die Jugend in der Infodemie. Eine repräsentative Befragung zum Umgang junger Menschen in Deutschland mit Falschnachrichten während der Coronakrise, hgg. v. Vodafone Stiftung Deutschland (Düsseldorf: 2020), online abrufbar hier.
Sabine Feierabend et al., JIM-Studie 2024. Jugend, Information, Medien. Basisuntersuchung zum Medienumgang 12- bis 19-Jähriger in Deutschland, hgg. v. Medienpädagogischer Forschungsverbund Südwest (Stuttgart: 2024), online abrufbar hier.
Tamara Kastorff et al., Fake News oder Fakten? Wie Jugendliche ihre digitale Informationskompetenz einschätzen und welche Rolle Schulen und Lehrkräfte dabei spielen. Erkenntnisse aus PISA 2022, (Münster: Waxmann, 2025). https://doi.org/10.25656/01:33288.
Yara Kyrychenko et al., »Profiling Misinformation Susceptibility«, in: Personality and Individual Differences, Jg. 241, 113177. https://doi.org/10.1016/j.paid.2025.113177.
Landesanstalt für Medien NRW, INFORMATIONSVERHALTEN WAHLEN UND DESINFORMATION 2025. Zentrale Untersuchungsergebnisse, hgg. v. Landesanstalt für Medien NRW (Düsseldorf: 2025), online abrufbar hier.
Linley Sanders, »How Well Can Americans Distinguish Real News Headlines from Fake Ones?«, auf: YouGov, 29. Juni 2023, online hier.
Georg Materna & Niels Brüggen, Die Informationsräume und das Informationshandeln junger Menschen und ihr Umgang mit Desinformation. Eine medienpädagogische Untersuchung mediatisierter Sozialräume, hgg. v. JFF – Institut für Medienpädagogik in Forschung und Praxis (München: März 2024), online abrufbar hier. https://doi.org/10.5281/ZENODO.12635275.
Welche pädagogischen Ansätze sind wirksam für den Umgang mit Desinformation und KI?
Eine Metastudie kommt zu dem Ergebnis, dass Projekte zu Media Literacy, News Literacy und Information Literacy tendenziell förderlich für »Resilienz gegenüber Misinformation« sind (Anstead et al. 2025, S. 2135ff.). Einige Studienergebnisse betonen die Bedeutung einer reflexiven Ebene und kontext-sensitiven, kritischen Denkens. Allerdings kann eine hohe Komplexität des Lerninhalts für Unsicherheit sorgen und die Skepsis gegenüber Informationen verstärken. Verständnis von Desinformation führt nicht notwendigerweise zur Änderung des eigenen Informationshandelns. Denn die Bereitschaft, Desinformation zu teilen, hängt nicht nur von der Einschätzung des Wahrheitsgehalts ab, sondern z.B. von autoritären Einstellungen (Stein et al. 2025), Vorstellungen von der eigenen Identität und der Zugehörigkeit zu sozialen Gruppen (Facciani 2025).
Der explorative Charakter und die meist kleinen Fallzahlen der von Anstead et al. (2025, S. 2139f.) aufgearbeiteten Interventionsstudien über die Wirksamkeit von Bildungsangeboten geben Einblicke und lassen viel Raum für weitere Forschung. Die Autor*innen monieren die disparate Forschungslandschaft und empfehlen den Austausch zwischen den Disziplinen und Konzepten. Für einen solchen Austausch sei ein breiter, übergreifender Begriff von Media Literacy geeignet. Das Ziel einer solchen Kompetenzförderung – egal unter welchem der Kompetenz-Labels – erschöpfe sich allerdings nicht in einer kompetenten instrumentellen Medienkommunikation, sondern bestehe darüber hinaus in »demokratischem Engagement und Partizipation« (ebd., S. 2142; Übersetzung d. Verf.).
In der deutschen Bildungslandschaft etablieren sich immer mehr Ansätze, die nicht (mehr) nur die Erkennung und Entlarvung von Desinformation als pädagogisches Ziel aufweisen (wie beispielsweise der Correctiv-Faktencheck, SWR Fakefinder, Fake News Check App), sondern darauf ausgerichtet sind, dass Kinder und Jugendliche ein Bewusstsein für die Absichten hinter der Erstellung und Verbreitung von Desinformation und Deep Fakes erlangen, indem sie Desinformation kritisch dekonstruieren und politische sowie gesellschaftliche Implikationen reflektieren (Serious Games wie Bad News und Fake It To Make It oder das Projekt BLINDSPOTLAB). Einige Projekte fokussieren dabei verstärkt die Förderung der Nachrichten- und Informationskompetenz Jugendlicher (spreuweizen, Isso!, fit for news oder use the news). Auch die schnellere Erstellung und Verbreitung sowie erschwerte Erkennung von Desinformation im Kontext von KI-Systemen (Deepfakes) wird dabei in einigen Ansätzen thematisiert (bspw. in den Projekten News Against The Machine, iKIDO, Visualising Democracy).
Unabhängig von der Kompetenz Jugendlicher oder Erwachsener zur Erkennung von Desinformation bildet die Arbeit gegen Radikalisierungstendenzen im Kontext von Desinformation eine gesellschaftliche und pädagogische Querschnittsaufgabe, bei der es gilt, Frühwarnzeichen für die Gefährdung durch extremistische Ideen zu erkennen und Widerstandsfähigkeit gegenüber Desinformation und Propaganda aufzubauen. Die Stärkung von Medien-, Informations- und Nachrichtenkompetenzen hat jedoch ihre Limitationen und kann nicht als alleiniges Mittel gegen Radikalisierungsprozesse gesehen werden.
Nick Anstead et al., »The Potential for Media Literacy to Combat Misinformation. Results of a rapid Evidence Assessment«, in: International Journal of Communication, Jg. 19 (2025), S. 2129–2151.
Matthew Facciani, Misguided. Where Misinformation Starts, How It Spreads, and What to Do About It, (Columbia University Press, 2025).
Randy Stein et al., »Symbolic Show of Strength. A Predictor of Risk Perception and Belief in Misinformation«, in: The Journal of Social Psychology (2025), S. 1–27. https://doi.org/10.1080/00224545.2025.2541206.
Eignet sich Prebunking als präventive Strategie gegen Desinformationen?
Insgesamt gewinnen präventive Strategien wie das Prebunking an Bedeutung, da sie darauf abzielen, die Wirkung falscher oder irreführender Informationen bereits im Vorfeld zu reduzieren. Grundlage dieses Ansatzes ist die in den 1960er Jahren entwickelte Inokulationstheorie (McGuire 1961), deren zentrale Annahme darin besteht, dass Individuen gegenüber Beeinflussungsversuchen durch Desinformation ähnlich immunisiert werden können, wie Personen gegen ein Virus immunisiert werden. Eine solche Einstellungsimpfung umfasst mehrere Schritte: Zunächst wird eine »Bedrohung« eingeführt, die die bestehende Position einer Person infrage stellt, indem darauf aufmerksam gemacht wird, dass sie möglicherweise mit Desinformation konfrontiert wird, die ihre Überzeugungen herausfordern könnte. Anschließend werden ein oder mehrere abgeschwächte Beispiele solcher Desinformation präsentiert und direkt widerlegt (Cook et al. 2017).
Auf dieser theoretischen Grundlage zielt Prebunking darauf, Nutzer*innen bereits vor dem Kontakt mit potenziell irreführenden Inhalten zu sensibilisieren und ihnen damit eine präventive Widerstandsfähigkeit gegenüber Desinformation zu vermitteln. Empirische Studien (Roozenbeek & van der Linden 2019; Eberhardt et al. 2024) deuten darauf hin, dass Prebunking die Resilienz stärken kann, die Unterscheidung zwischen vertrauenswürdigen und zweifelhaften Inhalten erleichtert und möglicherweise nachhaltiger wirkt als Debunking.
Grundsätzlich werden zwei Typen der Inokulation unterschieden (Bernsteiner et al. 2024): Inhaltsbasierte Inokulation widerlegt Desinformation mithilfe sachlicher Erklärungen, während logikbasierte Inokulation die zugrunde liegenden Täuschungstechniken offenlegt und so den verwendeten logischen Fehlschluss sichtbar macht. Studien deuten darauf hin, dass insbesondere logikbasierte Impfbotschaften verhindern können, dass Personen auch in anderen Kontexten durch ähnliche manipulative Argumentationsmuster getäuscht werden (Cook et al. 2017; Lewandowsky & Yesilada 2021).
Kritisch wiederum werden die zugrundeliegenden Annahmen der Prebunking-Ansätze diskutiert, da sie auf einem linearen Kommunikationsmodell fußen. So bemängeln beispielsweise Balog-Way und McComas (2025), dass Rezipient*innen aus dieser Perspektive als passiv und leicht manipulierbar vorgestellt werden und außerdem weitere Faktoren wie die Zugehörigkeit zu sozialen Gruppen oder identitätsstiftende Aspekte ausgeblendet würden. Auch Altay et al. (2023) kritisieren die Vorstellung einer quasi ansteckenden Information, da Menschen Nachrichten auf vielfältige Weise aufnehmen und verarbeiten würden.
Für den Bildungsbereich bedeutet dies, dass Prebunking-Strategien stets ein Abwägen erfordert zwischen einer Kompetenzförderung, die die Zielgruppe dazu befähigt, sich präventiv gegen potenzielle Schäden von Desinformation zu schützen, und den Grenzen eines solchen Ansatzes. Diese werden deutlich, wenn man berücksichtigt, dass beispielsweise Vertrauen in Absender*innen maßgeblich prägt, wie Menschen Botschaften aufnehmen und bewerten (Zhou & Shen 2021). In Bezug auf die Diskrepanz zwischen wahrgenommener und tatsächlicher Verbreitung von Desinformationen plädieren beispielsweise Acerbi und Kolleg*innen (2022) dafür, Desinformation nicht direkt zu bekämpfen, sondern stärker darauf zu fokussieren, die Akzeptanz verlässlicher Informationen zu fördern.
Alberto Acerbi, Sacha Altay & Hugo Mercier, »Research Note. Fighting Misinformation or Fighting for Information?«, in: Harvard Kennedy School Misinformation Review, Nr. 1, Jg. 3 (2022), online abrufbar hier.
Sacha Altay, Manon Berriche & Alberto Acerbi, »Misinformation on Misinformation. Conceptual and Methodological Challenges«, in: Social Media + Society, Nr. 1, Jg. 9 (2023), https://doi.org/10.1177/20563051221150412.
Angelika Bernsteiner, Thomas Schubatzky & Claudia Haagen-Schützenhöfer, »Förderung eines kritischen Umgangs mit (Des-)Informationen durch aktive Inokulation und Debunking«, in: Nicole Graulich, Julia Arnold u.a. (Hg.), Lehrkräftebildung von morgen. Beiträge der Naturwissenschaftsdidaktiken zur Förderung überfachlicher Kompetenzen (Münster: Waxmann, 2024), S. 247-254. https://doi.org/10.31244/9783830997962.
Dominic Balog-Way & Katherine McComas, »Unpacking the Risk of Misinformation. A Communication-Based Critique«, in: Risk Analysis, Nr. 12, Jg. 45 (2025), S. 4097–4109, https://doi.org/10.1111/risa.70093
John Cook, Stephan Lewandowsky & Ullrich K. H. Ecker, »Neutralizing misinformation through inoculation: Exposing misleading argumentation techniques reduces their influence«, in: PLoS One, Nr. 5, Jg. 12 (2017), e0175799. https://doi.org/10.1371/journal.pone.0175799.
Viktoria Eberhardt et al., »Gegen Falschinformation immunisieren? Potenziale und Grenzen von Prebunking«, in: Magazin erwachsenenbildung.at, Nr. 52 (2024).
Stephan Lewandowsky & Muhsin Yesilada »Inoculating against the Spread of Islamophobic and Radical-Islamist Disinformation«, in: Cognitive Research: Principles and Implications, Jg. 6 (2021), 57. https://doi.org/10.1186/s41235-021-00323-z
William J. McGuire, »Resistance to Persuasion Conferred by Active and Passive Prior Refutation of the Same and Alternative Counterarguments«, in: The Journal of Abnormal and Social Psychology, Nr. 2, Jg. 63 (1961), 326–332. http://doi.org/10.1037/h0048344.
Jon Roozenbeek & Sander van der Linden »The Fake News Game. Actively Inoculating against the Risk of Misinformation«, in: Journal of Risk Research, Nr. 5, Jg. 22 (2018), S. 570–580. https://doi.org/10.1080/13669877.2018.1443491.
Yanmengqian Zhou & Lijiang Shen, »Confirmation Bias and the Persistence of Misinformation on Climate Change«, in: Communication Research, Nr. 4, Jg. 49 (2021), S. 500-523, https://doi.org/10.1177/00936502211028049.
Wie können Prebunking-Ansätze in Bildungskontexte integriert werden?
Für die Ausrichtung pädagogischer Angebote stellt sich die Frage, wie Prebunking wirksam in Lernkontexte integriert werden kann. Besonders geeignet erscheinen dabei spielerische, interaktive und multimediale Formate – etwa Serious Games wie Bad News, Harmony Square bzw. Go Viral! (Bernsteiner et al. 2024) oder kurze Videos (vgl. Piltch-Loeb et al. 2022). Sie sind niedrigschwellig und können Lernende nachhaltig für manipulative Strategien sensibilisieren. Dies zeigt sich auch in einem groß angelegten Feldexperiment mit fast 30.000 erwachsenen YouTube-Nutzer*innen: Kurze Inokulationsvideos verbesserten die Fähigkeit, Manipulationstechniken zu erkennen, die häufig zur Verbreitung von Desinformation eingesetzt werden (Roozenbeek et al. 2022).
Es gibt zwar zahlreiche pädagogische Ansätze zur besseren Erkennung und Bekämpfung von Desinformation, aber bislang kaum belastbare Evaluationen. Zwar existieren vereinzelt empirische Überprüfungen entsprechender Programme aus dem deutschsprachigen Raum und Europa, doch handelt es sich dabei häufig um nicht-repräsentative, explorative Formate (Schubatzky & Haagen-Schützenhöfer 2022) oder frühe Pretests (Verhalle & Loos 2025). So zeigte eine niederländische Untersuchung zu Erhebungsinstrumenten (ebd.), dass ein Vergleich zwischen einer traditionellen Unterrichtseinheit mit Debunking-Methoden und einer Prebunking-Variante mithilfe des Spiels Bad News keine signifikanten Vorteile zugunsten des Prebunking ergab.
Andere Studien verweisen hingegen auf mögliche Synergien, die durch eine Kombination verschiedener Methoden entstehen können. Ein in Österreich erprobtes Interventionsdesign, das aktive Inokulation mit logikbasiertem Debunking verbindet, erwies sich bei Lehramtsstudent*innen als vielversprechend hinsichtlich der Entwicklung einer „Desinformations-Resilienz“ (Schubatzky & Haagen-Schützenhöfer 2022; Bernsteiner et al. 2024). Die Autor*innen betonen, dass dieser Ansatz sowohl das Erkennen als auch das Widerlegen von Desinformation fördert.
Zudem rücken die vorliegenden Erhebungen den Einfluss weiterer kontextueller Faktoren in pädagogischen Settings in den Fokus, darunter der Austausch mit der Lehrkraft, die Gruppengröße (Verhalle & Loos 2025) und die intrinsische Lernmotivation der Teilnehmer*innen (Schubatzky & Haagen-Schützenhöfer 2022). Hier besteht weiterer Forschungsbedarf – sowohl hinsichtlich der Nachhaltigkeit der beobachteten Kompetenzsteigerungen als auch bezüglich des Einsatzes von Prebunking-Methoden bei Angeboten für Kinder und Jugendliche.
Angelika Bernsteiner, Thomas Schubatzky & Claudia Haagen-Schützenhöfer, »Förderung eines kritischen Umgangs mit (Des-)Informationen durch aktive Inokulation und Debunking«, in: Nicole Graulich, Julia Arnold u.a. (Hg.), Lehrkräftebildung von morgen. Beiträge der Naturwissenschaftsdidaktiken zur Förderung überfachlicher Kompetenzen (Münster: Waxmann, 2024), S. 247-254. https://doi.org/10.31244/9783830997962.
Rachael Piltch-Loeb et al., »Testing the Efficacy of Attitudinal Inoculation Videos to Enhance COVID-19 Vaccine Acceptance. Quasi-Experimental Intervention Trial«, in: JMIR Public Health and Surveillance, Nr. 6, Jg. 8 (2022), e34615. https://doi.org/10.2196/34615.
Jon Roozenbeek & Sander van der Linden »The Fake News Game. Actively Inoculating against the Risk of Misinformation«, in: Journal of Risk Research, Nr. 5, Jg. 22 (2018), S. 570–580. https://doi.org/10.1080/13669877.2018.1443491.
Jon Roozenbeek et al., »Psychological Inoculation Improves Resilience against Misinformation on Social Media«, in: Science Advances, Nr. 34, Jg. 8 (2022), eabo6254. https://doi.org/10.1126/sciadv.abo6254.
Thomas Schubatzky & Claudia Haagen-Schützenhöfer, »Debunking Climate Myths Is Easy—Is it Really? An Explorative Case Study with Pre-Service Physics Teachers«, in: Education Sciences, Nr. 8, Jg. 12 (2022), 566. https://doi.org/10.3390/educsci12080566.
Pascale Verhalle & Eugėne Loos, »Fighting Disinformation. How to Measure the Impact of Pre- and Debunking on Dutch Primary School Children’s Media Literacy?«, in: Societies, Nr. 6, Jg. 15 (2025), 155. https://doi.org/10.3390/soc15060155.