Werbung

Wie Nutzer und Nutzerinnen sozialer Medien KI-Manipulationen und Deepfakes erkennen können

Strategien um Fälschungen zu entlarven

KI-Manipulationen und Deepfakes sorgen oft für Diskussionen. (Bild: Getty Images)
KI-Manipulationen und Deepfakes sorgen oft für Diskussionen. (Bild: Getty Images)

KI-Manipulationen und Deepfakes führen so manchen aufs Glatteis. Immer wieder machen Bilder und gefälschte Videos in den sozialen Medien die Runde und sorgen für Aufregung, weil sie für echt gehalten werden.

Erst Ende Januar versetzte ein computergeneriertes Video vom brennenden Eiffelturm viele Menschen in große Aufregung. Darin ist zu sehen, wie Flammen aus dem Wahrzeichen von Paris schlagen, während im Hintergrund Sirenen heulen. Der Filmausschnitt verbreitete sich rasend schnell in den sozialen Medien und wurde von vielen Zuschauern für echt gehalten. Millionen Menschen schauten das Video und viele ließen traurige oder entsetzte Kommentare da.

Anderen war dagegen sofort bewusst, dass es sich hier um einen KI-generierten Clip handelt muss. "Wie soll der brennen, der Turm besteht aus Stahl?", lauteten viele der Kommentare.

KI-Fälschungen sorgen oft für hitzige Diskussionen

Auch im vergangenen Jahr gab es immer wieder KI-generierte Fälschungen, die für explosiven Diskussionsstoff sorgten. So gingen etwa gefakte Bilder von Papst Franziskus um die Welt, auf denen er in einer weißen Designer-Daunenjacke zu sehen ist oder von Donald Trump, wie er sich gegen die Festnahme der Polizei wehrt.

Neben diesen bekannten Beispielen kursieren mittlerweile unzählige Varianten von KI-generierten Bildern im Netz. Doch während die einen Künstliche Intelligenz nutzen, um etwa Unterhaltsames und lustige Tierbilder zu erschaffen, setzen andere KI gezielt ein, um Falschmeldungen zu verbreiten, Menschen zu beeinflussen und zu manipulieren.

Open AI, das Unternehmen, das ChatGPT entwickelte, will deshalb im Hinblick auf weltweit bevorstehende Wahlen verstärkt daran arbeiten, Missbrauch durch KI zu verhindern und mehr Transparenz zu schaffen. "Wir widmen uns funktionsübergreifend der Wahlarbeit und bündeln das Fachwissen unserer Sicherheitssysteme, Bedrohungsinformationen, Rechts-, Technik- und Richtlinienteams, um potenziellen Missbrauch schnell zu untersuchen und zu bekämpfen", erklärt OpenAI auf seiner Internetseite.

Kritischer Blick ist wichtig

Um gefälschte Bilder und Videos zu erkennen, reicht oft schon ein kritischer Blick. Ein gutes Beispiel sind Fotos, die angeblich bei einem Parteitag der Grünen gemacht wurden und Ende 2023 im Internet kursierten.

Darauf zu sehen sind haufenweise Pizzakartons, die wüst durcheinander liegen. Dazwischen stehen Sonnenblumen.

Wer genau hinschaut, erkennt, dass es auf dem Foto viele Ungereimtheiten gibt. So sind etwa die Sonnenblumen in den Vasen unnatürlich angeordnet und haben eine merkwürdige Form. Auf den grünen Pappwänden finden sich falsche Logos und einige Pizzakartons haben merkwürdige Größen oder Formen, andere schweben in der Luft.

Auf Verzerrungen und Fehler achten

KI-Generatoren lernen zwar ständig dazu, produzieren aber auch häufig noch Fehler. Typisch sind etwa Fotos von Personen, die unnatürlich viele Zähne haben oder sechs Finger an einer Hand. Weitere Merkmale können Augenbrauen sein, die über die Frisur ragen, Brillen, die mit dem Gesicht verschmelzen oder auch eine ungleiche Augenpartie und andere falsch geformte Körperteile.

Gefälschte Videos lassen sich oft an verschwommen oder unlogischen Hintergründen, merkwürdig aussehenden Haaransätzen, unnatürlichen Gesichtszügen, fehlendem Blinzeln der Augen und fehlender Lippensynchronisation erkennen.

Die 3-W-Fragen

Bevor man Bilder und Videos auf mögliche Fehler überprüft, kann es auch hilfreich sein, erst einmal mit Logik an die Sache heranzugehen. Die Niedersächsische Landeszentrale für politische Bildung, rät, sich die 3-W-Fragen zu stellen, um Fälschern auf die Schliche zu kommen:

· Welche Aussage hat das Bild?

· Wer profitiert von einer solchen Aussage?

· Von wem wurde es veröffentlicht?

Rückwärts-Bildersuche nutzen

Auch die Rückwärts-Bildersuche ist eine gute Möglichkeit, Fälschungen zu entlarven. Dabei wird nach ­­­­­dem Ursprung von Bildern gesucht. Das lässt sich schnell bewerkstelligen, etwa mit den reversen Bildersuchen von Google oder TinEye. Das entsprechende Bild wird einfach mit der Maus ins Suchfeld gezogen oder seine URL eingegeben und in Sekundenschnelle spuckt die Suchmaschine Fotos aus, mit denen es Übereinstimmungen gibt.

Software, um KI-Bilder und Deepfakes zu erkennen

Immer mehr Unternehmen arbeiten auch an Erkennungstools, die gefälschte Bilder und Deepfakes enttarnen sollen. So sollen Nutzer etwa über die Website AI-Generated Image Detector checken können, ob Bilder echt sind oder nicht. Und auch Microsoft hat bereits 2020 das Video Authenticator Tool veröffentlicht, das gefälschte Bilder und Deepfakes erkennen soll.

KI-Bilder und Deepfakes zu enttarnen, ist oft nicht einfach, aber möglich. Mit fortschreitender Technik dürfte es zwar immer schwieriger werden, Fakes auf Anhieb zu erkennen, aber dafür werden auch entsprechende Erkennungs-Tools mit der Zeit immer besser, die uns das Leben sicher leichter machen werden.