AfD LGBTQIA* Campact Wahlen Digitalisierung Europa Montagslächeln Trump Feminismus Soziales

Ob in der Werbung, auf dem Immobilienmarkt oder als Teil von kreativen Prozessen: Mit KI generierte Bilder sind immer häufiger Teil unseres Alltags. Die Abkürzung KI steht dabei für „Künstliche Intelligenz“. Manchmal wird auch von „AI“ gesprochen, das ist die Abkürzung für die englische Übersetzung „Artificial Intelligence“. Es gibt mittlerweile einige Online-Dienste, welche diese Art von computergestützter Text-, Bild- und Videogenerierung anbieten.

Kritik an AI- bzw. KI-Bildern

Vor allem Künstler*innen äußern immer wieder Kritik an KI-Bildern. Denn die Programme bedienen sich für die Generierung der Bilder und dem Anlernen der KIs – mal offen, mal geheim – wohl an bereits bestehenden, oft urhebergeschützten Kunstwerken oder Fotos. Viele Künstler*innen boykottieren daher die Verwendung von KI für die Bilderstellung.

Diese Programme werden aber nicht nur dazu benutzt, um etwa bei einer Wohnungsanzeige die Räume exemplarisch zu möblieren oder um ein passgenaues Werbebild zu erstellen. Immer mehr Menschen und Netzwerke nutzen KI-Bilder und -Videos, um gezielt Personen anzugreifen, zu diffamieren oder Fake-News zu verbreiten. Die designierte Präsidentschaftskandidatin der US-Demokraten Kamala Harris ist Opfer von solchen KI-Fakes geworden, genau so wie Joe Biden, Michelle Obama und andere Prominente. Aber auch deutsche Politiker*innen, hier Olaf Scholz, wurden schon Opfer von gefälschten Bildern und sogenannten „Deep Fakes“, KI-generierten Videos.

Auch Medien und offizielle Stellen fallen hin und wieder auf KI-Fakes herein. Deswegen ist es wichtig, KI-Fakes erkennen zu können. Wir haben 5 Tipps für Dich, die Dir dabei helfen.

Willkommen im Campact-Blog

Schön, dass Du hier bist! Campact ist eine Kampagnen-Organisation, mit der über 4,25 Millionen Menschen entschlossen für progressive Politik eintreten und unsere Demokratie verteidigen. Wenn wichtige politische Entscheidungen anstehen, starten wir Kampagnen – digital und auf der Straße. Wir schmieden breite Bündnisse und mobilisieren eine starke Bewegung für die gemeinsame Sache.

1. Hinterfragen: Kann das wahr sein, oder ist es zu absurd?

Es sollte eigentlich immer der erste Schritt sein, sich die Frage zu stellen: Ist es wahrscheinlich, dass das tatsächlich passiert ist? Relativ offensichtlich ist das bei Bildern wie dem Titelbild zu diesem Beitrag aus dem Jahr 2023, welches den ehemaligen Papst Franziskus in der Jacke einer Luxusmarke zeigt. Papst Franziskus, das damalige Oberhaupt der katholischen Kirche, galt als gemäßigt und bescheiden, da passt so etwas einfach nicht ins Bild.

Anders sieht es bei KI-Fotos aus, die zum Beispiel zwei Prominente zusammen zeigen, wie hier Elon Musk und die CEO von General Motors, Mary Barra. Denn wie wahrscheinlich es ist, dass zwei Menschen wirklich miteinander ausgehen, lässt sich als Außenstehender oft schlecht beurteilen. Ähnlich sieht es bei Bildern aus Krisengebieten oder von Kriegseinsätzen aus.

Auch kann es helfen, sich zu fragen: Was soll dieses Bild bewirken oder aussagen? Was soll es mit mir emotional machen? Gerade, wenn überraschende Fotos einen emotional sehr bewegen, ist Vorsicht gefragt. Denn wütende, empörte oder auch schadenfreudige Menschen hinterfragen seltener den Wahrheitsgehalt von Bildern, wenn der Inhalt in ihr Weltbild passt.

Wenn eine objektive Einschätzung nicht hilft, kann eine kurze Internet-Recherche hilfreich sein: Berichten noch andere Quellen über das Ereignis, eventuell auch mit weiteren Bildern? Gibt es andere Fotos oder Perspektiven einer Situation, kann man sich schon sicherer sein, dass es sich um ein wahres Ereignis handelt. Auch die Rückverfolgung eines Bildes mit Hilfe von zum Beispiel TinEye kann helfen. Verweisen alle Seiten auf eine einzige Quelle oder lässt sich das Bild nicht zurückverfolgen, solltest Du misstrauisch werden.

2. Auf Hände, Füße und andere Körperteile achten

Auch wenn die KIs hier immer besser werden: Hände, Füße und andere Körperteile und Körperproportionen bereiten der künstlichen Intelligenz immer noch Schwierigkeiten. Da hat eine Hand dann mal sechs Finger, ist merkwürdig abgebogen oder viel zu groß oder zu klein, Beine sind übermäßig unterschiedlich lang oder Arme haben keine Verbindung zu einem Körper.

KI-generiertes Bild von Donald Trump während seiner Verhaftung.
Quelle: Eliot Higgins auf X

Auch Accessoires wie Brillen, Ohrringe oder Schmuck enthalten oft Fehler, ebenso wie Ohren und Zähne. Und wenn die Zähne zum Beispiel intakt sind, aber dafür übernatürlich weiß oder perfekt wirken, kann das ein Anzeichen für einen Fake sein. Dieses KI-Bild von einer vermeintlichen Festnahme von Donald Trump ist ein gutes Beispiel dafür: Die Polizeikräfte haben zum Teil weniger oder mehr Finger an den Händen, der Verlauf von Armen und Beinen ergibt keinen Sinn und es sind Gliedmaßen an Stellen, wo sie absolut nicht hingehören.

Das Bild von der Festnahme ist eines von mehreren KI-generierten Bildern, welche der Journalist und Gründer der Recherche-Plattform „Bellingcat“ am 20. März 2023 auf X (ehemals Twitter) postete. Er kommentierte sie mit den Worten: „Bilder davon erstellen, wie Trump verhaftet wird, während man auf Trumps Verhaftung wartet“ (eigene Übersetzung).

Makellose Haut, perfekte Zähne, seidig glänzende Haare

In Zeiten von Selfie-Filtern ist der Weg zu kompletten Fake-Bildern nicht weit. Manche KI-Plattformen nutzen zum Beispiel ein vorgegebenes Profilbild oder Foto, um daraus dann Varianten oder Überarbeitungen zu erstellen. Diese haben oft eine makellose Haut ohne Falten und Unreinheiten, selbst bei Personen, die älter wirken sollen, oder auch perfekt gerade Zähne oder extrem gut liegende Frisuren. Natürlich kann Make-Up viel ausmachen – ab einem gewissen Punkt wird es allerdings unrealistisch, und Du solltest vorsichtig sein.

3. Unrealistische Tiefenunschärfe erkennen

Auch die Logik von Tiefenunschärfen oder -Schärfen in Bildern ist etwas, an dem die KI manchmal scheitert. Nicht selten ist der Hintergrund von KI-Bildern unscharf gestaltet und soll eine Tiefenunschärfe oder einen Bokeh-Effekt simulieren, wie man ihn mit professionellen Kameras hinbekommt. Doch auch diese Unschärfe kann Fehler enthalten. Dann zum Beispiel, wenn der Hintergrund nicht bloß unscharf ist, sondern künstlich verwischt wirkt, oder sowohl Hintergrund als auch Vordergrund verwischt bzw. unscharf sind.

Mit KI generiertes Bild von drei Frauen in Krankenhauskitteln auf einem Krankenhausflur.
Quelle: Pixabay

Eine echte Kameralinse fokussiert auf einen bestimmten Abstand, nicht auf die Bildmitte oder ein Motiv. In diesem Bild wirkt der Hintergrund deshalb unrealistisch: Während rechts die Wand und die Bande unscharf sind, ist der weiße Kasten auf der gleichen Höhe sehr scharf. Das Bett auf der linken Seite wiederum ist unscharf, obwohl es auf der gleichen Höhe wie die drei Frauen stehen soll.

4. Hintergrund genau analysieren

Der Hintergrund eines computergenerierten Bildes wird oft zufällig oder mit nicht viel Sorgfalt gefüllt – schließlich soll die betrachtende Person auf das schauen, was im Vordergrund passiert. Der Bildhintergrund hilft daher auch manchmal dabei, KI-Bilder zu erkennen. Befinden sich zum Beispiel Personen im Hintergrund, können zwei identische oder sehr ähnliche, aber merkwürdig undefinierte Menschen mit ebenfalls ungewöhnlichen Proportionen vorkommen.

Auch Artefakte, das heißt Bildfehler wie verschwommene oder pixelige Gegenstände, unlogische oder einfach nicht existierende Gegenstände kann es geben. Ein paar Beispiele zur Verdeutlichung: Fehlende oder fehlerhafte Spiegelungen, Blumenvasen ohne Boden, Trinkgläser ohne Trinköffnung, krumme Laternen, Zäune oder Regale mit fehlenden Pfählen oder Wänden. Die Liste ist hier unerschöpflich und der „Fantasie“ der KI keine Grenzen gesetzt. Auch mit Sprachen und Schrift-Darstellung tun sich viele KIs schwer. Beschriftungen auf Schildern, Labels oder Büchern im Hintergrund ergeben oftmals keinen Sinn oder wirken wahllos zusammengewürfelt.

5. KI-Fake-Erkenner benutzen

Wenn Du Dir trotzdem immer noch nicht sicher bist, ob das vorliegende Bild gefälscht ist oder nicht, kannst Du Dir einen Fake-Erkenner zur Hilfe nehmen. Programme, welche erkennen können, ob ein Text mit einer KI generiert wurde, gibt es mittlerweile reichlich (zum Beispiel detecting-ai oder diesen Erkenner der FH Wedel). Für computergenerierte Bilder sieht es allerdings spärlicher aus.

Die wichtigsten und am weitesten verbreiteten Fake-Erkenner sind:

  • illuminarty.ai (WebApp und Browsererweiterung, die Basisfunktionen sind kostenlos)
  • Hive (Unternehmen, das selbst KI für Analysen nutzt und bereitstellt, das laut eigenen Angaben aber einem „ethischen Grundgedanken“ folgt, kostenfrei unter bestimmten Bedingungen)
  • Deepware (Programm des gleichnamigen Unternehmens, welches wiederum Tochterunternehmen einer Cybersecurity-Firma ist. Spezialisiert vor allem auf Deep-Fake-Videos, kostenlos)
  • Sensity (KI-gestützer Fake- und Deep-Fake-Erkenner, kostenpflichtig, Zielgruppen sind vor allem das Rechtssystem, Konzerne oder Regierungen)
  • Reality Defender (Kollaboration von u.a. Microsoft und Visa, kostenpflichtig, richtet sich vor allem an Konzerne und Regierungen)

Deinen eigenen Blick für KI-Bilder schärfen kannst Du zum Beispiel mit der Website „Detect Fakes“ der Northwestern University aus den USA oder mit Quizzes, zum Beispiel diesem hier von GEO oder diesem vom WDR.

Und wie erkenne ich KI-Videos?

Auch KI-generierte Videos wirken immer echter – man muss schon genau hinschauen, um sie von echten Videos unterscheiden zu können. Neben den bereits erwähnten gibt es noch weitere Punkte, an denen Du Dich orientieren kannst:

  • Unnatürliche, mechanische, oft auch zu langsame Bewegungen
  • Inkonsistenzen (z.B. bei Lichtverhältnissen) zwischen dem Gesicht einer Person und dem Hintergrund
  • Unrealistische Hände und Gesichter
  • Metallischer, monotoner Klang der Tonspur
  • Falsche Aussprache
  • Künstlich wirkende Sprechweise
  • Unnatürliche Geräusche und Verzögerungen in der Aussprache

KI kann oft nur kurze Videoabschnitte akkurat erstellen. Wenn ein Video aus vielen kurzen Clips zusammengesetzt ist, kann das ein Hinweis auf KI sein.

KI erkennen zu können wird immer wichtiger

Lustige Tiervideos, personalisierte Grußbotenschaften und absurde Clips sind auf der einen, eher harmlosen Seite von KI-generierten Inhalten. Auf der anderen Seite stehen Fakes, Lügen und Propaganda, die auch mit KI erstellt werden – die Maschine macht da keinen Unterschied. Und die Betreiber sehen keinen Nutzen für sich darin, ihre Dienste zu regulieren.

Deswegen müssen wir als Zivilgesellschaft aufmerksam bleiben und uns wehren, wenn KI zum Teil einer Propagandamaschine wird oder Menschenwürde verletzt – wie im Fall der KI von Elon Musk, Grok. Doch um den Missbrauch von KI anzeigen zu können, müssen wir in der Lage sein, sie zu erkennen.

Gemeinsam gegen KI-Fakes, Hate Speech und Anfeindungen einzustehen wird eine Notwendigkeit in unserer Gesellschaft und Demokratie werden müssen. Teile diesen Beitrag mit drei Freund*innen oder Bekannten, damit ihr gemeinsam informiert bleibt – und keiner von euch auf einen Fake hereinfällt.


Anmerkung der Redaktion: Dieser Beitrag wurde erstmals am 30. Juli 2024 mit dem damaligen Wissenstand zu AI bzw. KI veröffentlicht. Er wird laufend um weitere Beispiele und Erkenntnisse erweitert.

Autor*innen

Linda Hopius hat Wissenschaftsjournalismus, Politikwissenschaft und Philosophie studiert. Als freie Journalistin schreibt sie zu den Themen Umwelt und Naturschutz. Dazu arbeitet sie als Naturmentorin in der Natur- und Erlebnispädagogik und berichtet darüber auf ihrem Instagram-Kanal @lindasnaturgeschichten. Für Campact arbeitet sie seit 2024 als freie Redakteurin. Alle Beiträge

Auch interessant

Digitalisierung Campact-Team Montagslächeln: Europäische Autonomie Mehr erfahren
Demokratie Friedemann Ebelt Welche sozialen Medien können Demokratie? Mehr erfahren
Demokratie WeAct-Team Was ist Volksverhetzung – und was nicht? Mehr erfahren
Demokratie Sibel Schick Unsere Verantwortung im Umgang mit dem Iran Mehr erfahren
Medien Matthias Meisner Ostdeutsche Allgemeine Zumutung Mehr erfahren
Medien Campact-Team Warum wir jetzt hinschauen müssen: Luis Paulitsch über die Macht „Alternativer Medien“ Mehr erfahren
Demokratie Anselm Renn Widerstand reframed Mehr erfahren
Demokratie Christoph Bautz Gegen Trumps Größenwahn hilft nur mehr Europa  Mehr erfahren
AfD Campact-Team Was ist eine Alleinregierung? Mehr erfahren
Datenschutz Hannes Koch Wir brauchen einen Abschied von US-Digitalkonzernen Mehr erfahren