Desinformation Erinnern Rechtsextremismus LGBTQIA* WeAct CDU Montagslächeln Soziales Klimakrise Protest

Anne Frank schaut direkt in die Kamera, während sie, begleitet von dramatischer Musik, von der Verhaftung ihrer Familie erzählt. Dieses Video auf TikTok ist nur ein Beispiel dafür, wie künstliche Intelligenz (KI) die Art verändert, wie wir uns an historische Begebenheiten erinnern. Allein von Anne Frank existieren zahlreiche KI-Versionen. Eine von ihnen beendet ihr Video mit den Worten: „Bitte abonniert meinen Kanal und lasst ein Like da, wenn euch meine Geschichte berührt hat.“ 

Die KI-Annes zeigen uns, welches Potenzial die neue Technologie hat, um Geschichte lebendig werden zu lassen – und welche Gefahren in ihr lauern. Denn während Anne Franks Leben und Gedanken durch ihr Tagebuch für die Nachwelt verfügbar sind, sind die letzten Stunden vor ihrer Verhaftung nicht dokumentiert. Das Video zeigt reine Fiktion, was jedoch nicht allen Zuschauer*innen klar sein dürfte. Dabei handelt es sich noch um eines der harmloseren Beispiele. Die Bildungsstätte Anne Frank zeigt in einem umfassenden Report zu Erinnerungskultur im Netz, dass künstliche Annes auch offensichtliche Fehlinformationen verbreiten oder dazu genutzt werden, um antisemitische Stereotype zu verbreiten

Ein digitales Denkmal gegen das Vergessen

Dabei ist offensichtlich, dass KI auch enorme Potenziale hat, um Geschichte lebendig werden zu lassen und die Erinnerung an Zeitzeug*innen wachzuhalten. Ein eindrucksvolles Beispiel dafür ist das Projekt „Dimensions in Testimony“, das helfen soll, die Stimmen von Holocaust-Überlebenden zu bewahren. In langen Video-Sessions wurden Zeitzeug*innen zu ihrem Leben befragt. Mithilfe von KI können Menschen dann mit den digitalen Avataren interagieren – sie antworten auf Fragen, als wären sie real anwesend. 

Bildungsinstitutionen können solche Technologien einsetzen, um Begegnungen mit Zeitzeug*innen auch für kommende Generationen zu ermöglichen. Durch diese digitalen Erinnerungen können besonders junge Menschen einen neuen Zugang zu Geschichte erleben. Auch die Holocaust-Gedenkstätte Yad Vashem setzt KI ein, um bisher unbekannte Opfer des Holocausts zu identifizieren. Von den sechs Millionen ermordeten Jüdinnen*Juden sind etliche nicht namentlich bekannt. Die KI durchsucht Archive, historische Dokumente und Transportlisten, um die fehlenden Namen zu finden und den anonymen Opfern ihre Identität zurückzugeben.

AI-Slop aus dem KZ

KI kann also durchaus bei der Gedenkarbeit unterstützen, birgt aber auch enorme Gefahren für unser Geschichtsbewusstsein. Denn die Technologie wird zunehmend missbraucht, um Geschichte zu verzerren oder schlicht Geld zu machen. Auf Facebook und TikTok kursieren etliche KI-generierte Bilder, die angeblich den Holocaust dokumentieren sollen. Zu sehen sind weinende Kinder in Konzentrationslagern, dramatische Szenen und herzerwärmende Geschichten voller Details, die allerdings nie stattgefunden haben. Oft werden sie von dubiosen Accounts verbreitet, die mit Emotionen Klicks und Reichweite generieren wollen. 

Ein Motiv: Profit. In diesem Fake-Content vom Fließband gehen echte historische Aufnahmen unter. Das Problem: Die Bilder wirken authentisch, berühren emotional – und prägen so unser kollektives Gedächtnis mit falschen Informationen. Selbst wenn solche Darstellungen nicht absichtlich falsch sind, vereinfachen sie komplexe historische Realitäten gefährlich. Zudem reproduzieren sie oft Stereotype, etwa in der bildlichen Darstellung von Jüdinnen*Juden, oder wenn ein KI-„Erklärvideo“ die Frage stellt: „Warum sind Juden so reich?“.

Die Holocaust-Fakes weisen zudem auf ein größeres Problem mit KI-generierten Bildern und Videos hin: Sie untergraben unser Verständnis von Wahrheit und das Vertrauen in historische Quellen. Denn während Archivarbeit mühsam und kleinteilig ist, wirken die KI-Bilder schnell und überzeugend. Oft ist nicht klar, was historisch belegt ist und was KI-gestützt herbeifabuliert wurde. Wenn wir aber nicht mehr unterscheiden können, was real dokumentiert und was generiert ist, verlieren wir den Zugang zu historischen Fakten – und damit die Grundlage demokratischer Erinnerungskultur.

Wie erkenne ich KI-Videos?

KI-generierte Videos wirken immer echter – man muss schon genau hinschauen, um sie von echten Videos unterscheiden zu können. Woran Du Dich orientieren kannst:

  • Unnatürliche, mechanische, oft auch zu langsame Bewegungen
  • Inkonsistenzen (z.B. bei Lichtverhältnissen) zwischen dem Gesicht einer Person und dem Hintergrund
  • Unrealistische Hände und Gesichter
  • Metallischer, monotoner Klang in der Tonspur
  • Falsche Aussprache
  • Künstlich wirkende Sprechweise
  • Unnatürliche Geräusche und Verzögerungen in der Artikulation

KI kann oft nur kurze Videoabschnitte akkurat erstellen. Wenn ein Video aus vielen kurzen Clips zusammengesetzt ist, kann das ein Hinweis auf KI sein.

KI als Werkzeug für Geschichtsrevisionismus

Es gibt also zum einen Accounts, die erfundene Geschichten posten, um daraus Profit zu schlagen, und dabei Desinformation billigend in Kauf nehmen. Zum anderen gibt es auch solche, die KI nutzen, um Geschichte bewusst zu verzerren: Holocaust-Leugnung, NS-Verherrlichung und antisemitische Verschwörungsmythen werden dabei in vermeintlich historischen Visualisierungen hübsch verpackt. Denn Geschichte war nie nur Vergangenheit – sie ist auch ein politischer Kampfplatz. Historische Ereignisse werden kontinuierlich neu interpretiert und in gegenwärtige Diskurse eingeordnet. Hier setzen vor allem rechtsextreme Akteur*innen an: Sie wollen die Deutungshoheit über historische Ereignisse an sich reißen, um ihre Ideologie zu legitimieren. KI liefert ihnen neue Mittel, um die Nazi-Verbrechen zu relativieren, Täter zu Opfern zu machen und Desinformation zur Shoah zu verbreiten. Besonders perfide: Oft geschieht dies subtil durch Auslassungen, vermeintlich satirische Zuspitzungen oder emotionale Aufladungen.

Die KI-generierten Bilder und Videos geben dieser Geschichtsfälschung neuen Antrieb. Fake-Aufnahmen wirken authentisch, lassen sich ohne großen Aufwand massenhaft produzieren und viral verbreiten. Dabei hilft, dass Algorithmen emotional aufgeladene und polarisierende Inhalte belohnen; also genau das Terrain, auf dem rechtsextreme Online-Welten gedeihen. Was früher mühsame Propaganda-Arbeit war, ist heute mit wenigen Klicks möglich. Die extreme Rechte hat damit ein mächtiges Werkzeug zur Verfügung, um historische Narrative zu ihren Gunsten umzuschreiben – und junge Menschen über Social Media massenhaft zu erreichen.

Regulieren, aufklären, anzeigen

Was also können wir als demokratische Gesellschaft der KI-gestützten Geschichtsverzerrung entgegensetzen? Mögliche Ansatzpunkte liegen zunächst bei den Plattformen. Bisher versagen Meta (der Konzern hinter Instagram und Facebook) und TikTok dabei, KI-generierte Inhalte als solche zu kennzeichnen und zu löschen, wenn sie Desinformationen verbreiten. Das betrifft nicht nur historische Aufnahmen – aber auch in diesem Themenfeld bleiben Fake-Bilder online. Selbst wenn Nutzer*innen den Content melden, dauert es oft Tage, bis die Inhalte gelöscht werden. Tage, in denen sich die Bilder ungestört weiter verbreiten. Um das zu ändern, braucht es strengere Community-Richtlinien und eine konsequente Anwendung des europäischen AI-Acts. Der tritt 2026 in Kraft und soll Creator*innen verpflichten, KI-Inhalte zu kennzeichnen. 

Allein auf die Plattformen zu vertrauen, reicht aber nicht. Nutzer*innen müssen lernen, KI-Inhalte zu erkennen und historische Quellen kritisch zu prüfen. Schulen und Bildungseinrichtungen können Geschichtskompetenz auch im digitalen Raum vermitteln, entweder im Geschichtsunterricht, oder als Teil der allgemeinen Medienkompetenz. Holocaust-Leugnung und Volksverhetzung sind in Deutschland strafbar – auch digital. Behörden sollten Geschichtsrevisionismus in den sozialen Netzwerken konsequent verfolgen. 

Momentan ist keiner dieser Ansätze ein Selbstläufer. Plattformen sperren sich gegen Regulierungen und sowohl Behörden als auch Schulen sind überfordert. Es gibt jedoch auch eine gute Nachricht. Denn während KI-Bilder immer realistischer werden, steigt bei vielen Menschen das Misstrauen gegenüber Inhalten in den sozialen Medien und die Sehnsucht nach realen Darstellungen. Darin liegt die Gefahr, dass auch realen historischen Darstellungen nicht mehr geglaubt wird – aber auch die Chance, demokratische Erinnerungskultur ohne KI-Störungen zu pflegen.

TEILEN

Autor*innen

Victoria Gulde ist seit 2018 Campaignerin bei Campact. Als Teil des Kampagnen-Teams gegen Rechtsextremismus setzt sie sich gegen die Normalisierung rechten Gedankenguts ein. Sie hat Politikwissenschaft, Kommunikationswissenschaft und Internationale Beziehungen studiert. Für den Campact-Blog schreibt sie über Gedenktage und die Bedeutung einer lebendigen Erinnerungskultur. Alle Beiträge

Auch interessant

Desinformation Karolin Schwarz Deepfakes: Gewalt gegen Frauen als Massenprodukt Mehr erfahren
CDU Campact-Team R21: Mit Spahns Millionen gegen die Brandmauer?  Mehr erfahren
Medien Campact-Team Warum wir jetzt hinschauen müssen: Luis Paulitsch über die Macht „Alternativer Medien“ Mehr erfahren
AfD Campact-Team Was ist eine Alleinregierung? Mehr erfahren
Rechtsextremismus Andreas Kemper Javier Milei Institut und die AfDP-Clique Mehr erfahren
Erinnern Campact-Team Diese deutschen Unternehmen haben eine NS-Geschichte Mehr erfahren
Erinnern Victoria Gulde Rechtsmotivierte Gewalt: Eine Lücke mit Folgen Mehr erfahren
AfD Campact-Team Ulrich Siegmund: Der AfD-Spitzenkandidat, der Sachsen-Anhalt kippen könnte Mehr erfahren
Rechtsextremismus Andreas Speit Terror kein Thema: NSU-Nachfolgeprozess ohne Nachhall?  Mehr erfahren
AfD Juli Katz Die treuen Gehilfen der Rechtsextremen Mehr erfahren