Nicht alles, was im Internet steht, ist wahr. Eine gewisse Skepsis gegenüber dem geschriebenen Wort ist weit verbreitet in unserer Gesellschaft.

Bei aller Medienskepsis gilt Videomaterial jedoch bislang weitestgehend als vertrauenswürdig. Klar, da kann was weggeschnitten worden sein, oder aus dem Kontext gerissen. Dass die Person aus dem Video aber das Gesagte tatsächlich auch gesagt hat, daran besteht wenig Zweifel – zumal etwa Voice-Over-Fakes recht leicht zu erkennen sind.

Doch durch neue Möglichkeiten könnte die Audio- und Videomanipulation von Nachrichten eine völlig neue Dimension bekommen. Technologie ermöglicht es inzwischen, Personen des öffentlichen Lebens in gefälschten Videos völlig beliebige Dinge sagen zu lassen. Angela Merkel gesteht eine Affäre mit Horst Seehofer. Martin Schulz erzählt von seiner Aufgeschlossenheit gegenüber rechtsextremem Gedankengut. Helene Fischer kündigt an, keine Platten mehr aufzunehmen.

Die an der Stanford University entwickelte Software Face2Face ermöglicht es, Menschen fremde Wörter in den Mund zu legen. Dazu werden die Gesichtsbewegungen einer Person aufgenommen und über das Originalvideo einer anderen Person gelegt. Im unteren Video demonstriert das Forschungsteam ihre Technologie anhand von Videomaterial mit George W. Bush und Vladimir Putin.

In diesem Video der University of Washington haben die Forscher*innen das Audiomaterial von einer von Obamas Reden genommen und auf ein komplett neu animiertes Video angewandt:

Wird Face2Face mit manipuliertem Audiomaterial kombiniert, kann das Programm Videos kreieren, die überzeugend real wirken. Die University of Alabama zeigt in einer Studie, wie leicht es ist, mithilfe von verschiedenen Audioaufnahmen echt wirkendes, neues Audiomaterial zu kreieren. Von einer Person des öffentlichen Lebens, von der unzählige Videoclips im Netz kursieren, lassen sich aus alten Reden und Interviews komplett neue Sätze erstellen.

Die Studie befasst sich jedoch nicht nur mit der Frage, wie manipulierte Nachrichten durch solche Manipulation zustande kommen können, sondern auch, welche Auswirkungen diese Technik auf unser normales Leben haben könnte. Durch Videoaufnahmen an öffentlichen Orten oder Sprachnachrichten über Kurznachrichtendienste lässt sich relativ leicht Audiomaterial sammeln. Durch Manipulation dieses Materials "könne man sich beispielsweise als die Mutter einer anderen Person ausgeben und gefälschte Nachrichten hinterlassen. Oder jemand diffamieren und dann die Aufnahmen veröffentlichen", sagte die Forscherin Nitesh Saxena gegenüber dem Guardian.

Noch sind die Technologien nicht perfekt, doch es wird nicht mehr lange dauern, bis sich manipulierte Audioaufnahmen und Videos kaum mehr von echten unterscheiden lassen. Olivia Solon hat für den Guardian aufgeschrieben, was das Gefährliche daran ist: "Manipulierter Inhalt täuscht möglicherweise keine gründliche Redaktion. Wenn er jedoch in den sozialen Medien gepostet wird und viral geht, könnte er politische oder diplomatische Desaster auslösen. Zum Beispiel, wenn Donald Trump darin Nordkorea den Krieg erklärt."

Die Forscherin Saxena ergänzt: "Wenn jemand aussieht wie Trump und spricht wie Trump, werden sie denken, dass es Trump ist."