Das eigene Gesicht auf den Körper des Freundes projizieren, die Mama zu Barbie machen oder den Nachbarn zu Tom Cruise? Mit Face-Swapping-Apps geht das mit nur einem Klick. Aber Achtung! Das, was in der Freizeit vor allem bei Jugendlichen großen Spaß machen kann, wird weltweit genutzt, um gezielt Falschinformationen zu streuen. Bild-, Video- und Audio-Manipulationen dienen als Instrument, um Menschen bewusst zu beeinflussen und zu schädigen. Mit ein paar Tricks lassen sich sogenannte Deepfakes aber entlarven.
Um sich vor Medienmanipulationen zu schützen, sollten die gängigsten Formen der Fälschung bekannt sein. Face-Swapping, also das Austauschen von Gesichtern, ist aktuell die am häufigsten genutzte Methode. Eine weitere Form der Gesichtsfälschung ist das Face Reenactment. Dabei werden die Gesichtszüge einer Person verändert. Aus einem lächelnden Blick wird so zum Beispiel ein wütendes Gesicht, ob auf einem Foto oder (live) im Video. Viele Gesichtsfilter auf TikTok und Instagram nutzen diese Methode.
GEFÄLSCHTE STIMMEN
Neben visuellen Inhalten können auch Stimmen gefälscht werden. Hier wird zwischen Text-to-Speech (TTS) und Voice-Conversion (VC) unterschieden. Bei TTS liest die KI (künstliche Intelligenz) einen geschriebenen Text in der Stimme eines Opfers. So können beispielsweise Politiker in einem Video etwas ganz anderes sagen, als sie ursprünglich geäußert haben. Mit VC kann das sogar live passieren: Jemand spricht etwas ein, und am anderen Ende werden die Wörter direkt in der Stimme des Opfers ausgegeben.
DEEPFAKES ENTLARVEN
Viele Manipulationen wirken verblüffend echt. Doch es gibt Indikatoren, die auf Fälschungen hindeuten: So sollte zum Beispiel darauf geachtet werden, ob die Belichtung auf dem Bild oder Video stimmt oder ob es verwaschene Konturen gibt. ,,Manchmal ist beispielsweise ein seltsamer Schatten zu sehen oder das Ohrläppchen geht schwammig in den Hintergrund über", wie Experten wissen. Gefälschte Stimmen haben oft einen monotonen, metallischen Klang. Daher sollte der Aussprache besondere Aufmerksamkeit geschenkt werden, da KIs zwar die Klangfarbe einer Stimme gut erfassen, aber Probleme mit Akzenten und insbesondere Dialekten haben. Bei gefälschten Videos bewegten sich auch die Lippen häufig nicht synchron zum Gesagten.
RÜCKWÄRTSSUCHE EMPFOHLEN
Bei Bildern raten die Experten zudem dazu, die Bilderrückwärtssuche zu nutzen. Und immer zu hinterfragen, ob Aussagen und Handlungen zu der jeweiligen Person passen. Mit einem Blick für Details und gesundem Menschenverstand lassen sich auf diesem Weg viele Fakes entdecken. djd