Die Webseite This Person Does Not Exist zeigt Fotos von Menschen, die aber gar nicht existieren. Eine Künstliche Intelligenz hat sie erzeugt – und sie sehen erschreckend echt aus.

Es ist nichts zu sehen, außer das Porträt einer Frau. Sie hat dunkle Augen und kurze, braune Haare. Das Foto sieht aus wie ein offizielles Porträtfoto, mit dem sich die Person für Jobs bewirbt und das auf ihrem Führerschein klebt. Aber die Frau hat keinen Führerschein. Sie bewirbt sich nicht um Jobs. Sie existiert nicht. Das realistisch aussehende Bild ist das Ergebnis von Künstlicher Intelligenz (KI).

Philipp Wang, ein Softwareentwickler von Uber, postete im Februar den Link zu der Seite thispersondoesnotexists.com in einer Facebookgruppe zu Künstlicher Intelligenz. Ruft man die Seite auf, wird einem ein künstlich kreiertes Menschengesicht gezeigt. Aktualisiert man die Seite, erscheint ein Neues. Viele der Bilder wirken fast schon gruselig echt. Fehler stellt man nur nach genauerem Hinschauen fest: So stimmt manchmal etwas nicht mit dem Hintergrund, Zähne haben seltsame Größen und die Haarstruktur wirkt nicht normal.

Die Technologie dahinter

Hinter der Seite steht eine Technologie der US-Firma Nvidia, einer der größten Entwickler von Grafikprozessoren und Chipsätzen für Personal Computer und Spielkonsolen. Nvidia-Forscher*innen arbeiten an sogenannten Generative Adversarial Networks (GAN). Ziel von GANs ist es, dass sich die KI ständig verbessert und immer realistischere Bilder erzeugt.

Dafür werden zwei Algorithmen verwendet: Der erste, Generator genannt, erzeugt etwas, beispielsweise Gesichter oder Katzen oder Inneneinrichtung. Das Bild eines Gesichts besteht für den Algorithmus immer aus einer Kombination von sogenannten Styles: etwa den Augen, den Haaren, der Hautfarbe oder der Gesichtsform.

Je nachdem, wie diese Styles verändert werden, ergeben sich unterschiedliche Gesichter. Der Algorithmus greift dabei auf eine Datenbank von echten Gesichtern zurück und vergleicht ständig, ob die Gesichtsmerkmale der künstlichen Bilder denen echter Bilder entsprechen. Das ist der zweite Algorithmus, genannt Discriminator. Er bewertet, ob die Ergebnisse real oder fake sind. Vom Feedback des zweiten Netzwerks lernt das erste, immer realistischere Bilder zu erzeugen.

Mit der GAN-Technologie war es allerdings bislang schwierig, Bilder in hoher Auflösung zu kreieren. Die ersten kreierten Gesichter, die 2014 veröffentlicht wurden, erkennt man klar als Fakes. Das Team von Nvidia hat die Technik mittlerweile weiterentwickelt. Die Technologie unterscheidet nun zwischen groben, mittleren und feinen Styles. Je höher die Auflösung, desto feiner der Style. Alle Styles lassen sich nun auch wie mit einem Schieber an einem Mischpult graduell verschieben – und so lassen sich alle Arten von Gesichtern erzeugen.

Mit der automatischen Technologie hofft das Unternehmen, virtuelle Welten zu entwickeln, ohne alles manuell coden zu müssen. Figuren in Computerspielen könnten dadurch realistischer werden, virtuelle Assistent*innen oder Bots ein Gesicht bekommen. Auch für die Werbeindustrie birgt die Technologie Potenzial. Es gibt bereits eine erste künstlich geschaffene Social-Media-Influencerin: Imma. Sie wirbt für Kleidung und hat über 145.000 Follower.

Die Technologie birgt auch Risiken. Die Seite Interesting Engineering warnt davor, dass sie dazu eingesetzt werden könnte, Fake News zu kreieren. Superrealistische computererstellte Bilder und Videos könnten es zunehmend schwieriger machen, Fälschung von Realität zu unterscheiden. Die Journalistin Claudia Frickel warnt davor, dass solche Fotos auch Betrüger*innen im Netz helfen könnten. Etwa im Onlinedating: Dort würden bislang überwiegend Fotos echter Menschen geklaut und benutzt werden. Mit der Rückwärts-Bildersuche bei Google könne man solche Tricks schnell feststellen – mit künstlich erstellten Fotos sei dies jedoch nicht mehr möglich. th