SENDETERMIN So, 18.02.18 | 23:15 Uhr | Das Erste

Fake, Lügen und Video – Neue Technologien der Gesichtserkennung und Bildmanipulation

PlayFake Video: Donald Trump
Manipulation von Videos: Was ist noch echt? | Video verfügbar bis 18.02.2019 | Bild[1]: NDR

Videos gelten als Beweis, dass etwas echt ist. Noch. Längst arbeiten Entwickler wie zum Beispiel Hao Li im Silicon Valley an Technologien, die es ermöglichen, die Mimik und die Sprache eines Menschen auf das Bild eines anderen zu übertragen. Täuschend echt wirkende Avatare sollen so zum Beispiel unsere Kommunikation revolutionieren. Auch in anderen Bereichen profitiert die Wissenschaft von Programmen, die die menschliche Mimik verändern und entschlüsseln können: Sie werden für die Schmerztherapie oder für die Marktforschung eingesetzt.

Doch was passiert, wenn solche Techniken missbraucht werden: Wenn Donald Trump in einem manipulierten Video den Dritten Weltkrieg ausrufen würde? Steuern wir auf eine neue und verheerende Form der Fake News zu? Welche Verantwortung haben die Entwickler?

Das Ziel: neue Tools für Kommunikation

Hao Li, Software-Entwickler im Silicon Valley.
Entwickler Hao Li: "Wenn sich jetzt irgendwelche Videos im Internet viral verbreiten, muss man schon sehr vorsichtig sein." | Bild: NDR

Den Entwicklern rund um Hao Li geht es nicht darum, Fake News in die Welt zu setzen. Sie forschen an neuen Tools für Kommunikation. Jeder soll dreidimensionale Avatare für virtuelle Welten erstellen können. Aber auch die Filmindustrie soll profitieren. "Also ich könnte jetzt ein neues Video generieren, wo meine Gesichtszüge auf den anderen transferiert werden", erzählt Hao Li, CEO Pinscreen und Director Institute for Creative Technologies. "Und ich kann das Gesicht von jemand anderen auf mein Gesicht übertragen, sodass ich dann aussehen würde, wie jemand anderes."

Eine Software erstellt eine Maske, die die Mimik dreidimensional erfasst. Diese Maske kann dann beliebig belegt werden. Ein einfaches Foto reicht als Vorlage. Niemand kann das kontrollieren. "Zum Glück ist Fake-News-Missbrauch noch nicht so weit, aber es wird sehr wahrscheinlich kommen", so Hao Li. "Es gibt schon sehr viel Software, die Leute im Internet hochladen, um das Gesicht von einem auf den anderen zu übertragen. Das heißt, man hätte im Prinzip die Möglichkeit, Videos zu generieren von Leuten, die irgendwelche Sachen machen, die es gar nicht gibt."

Wenn Maschinen menschliche Emotionen lesen

Auch Forscher des Fraunhofer Instituts Erlangen beschäftigen sich intensiv mit dem Gesicht – für die Wissenschaft. Sie bringen Maschinen bei, Emotionen von Menschen zu lesen. Technisch möglich ist viel, aber haben Entwickler nicht auch eine soziale Verantwortung?

Jens Garbas vom Fraunhofer Institut Erlangen.
Jens Garbas ist Gruppenleiter Intelligente Systeme am Fraunhofer Institut Erlangen. | Bild: NDR

"Da stellt sich die Frage natürlich zu allererst im Bereich der Anwendung: Wofür werden Technologien angewendet?", sagt Jens Garbas vom Fraunhofer Institut. "Und da muss man schon klare Grenzen ziehen, klare Regeln festlegen, was man denn darf und was ethisch und rechtlich zulässig ist. Da machen wir uns in unserer Forschung natürlich auch sehr viele Gedanken drüber – über ethische, rechtliche, soziale Auswirkungen von allem, was wir tun."

Von guter Forschung zu Missbrauch der Technologie

Jens Garbas und sein Team arbeiten mit ähnlichen Programmen wie das Silicon Valley. Sie wollen intelligente Systeme entwickeln, die zum Beispiel im Pflegeheim erkennen, wenn jemand, der nicht sprechen kann, Schmerzen hat. Dass aber auch Missbrauch möglich ist, zeigen andere deutsche Forscher.

Lippensynchron und in Echtzeit übertragen sie ihre Gesichtszüge auf berühmte Politiker. Jeder könnte Putin oder Trump mit zusätzlicher Sprachsoftware glaubhaft den dritten Weltkrieg ausrufen lassen. Die Auswirkungen: verheerend. Bisher galten Videos als Beweis von Realität. Mit solchen Technologien ist das vorbei. Jedes Video könnte eine Lüge sein. 

Forschen um vorherzusehen

Es sei aber wichtig, an solchen Themen zu forschen, sagt Garbas. "Um insbesondere in Deutschland und Europa entsprechendes Wissen aufzubauen, wie solche Technologien funktionieren und auch die Möglichkeit zu haben, vorherzusehen, was da noch alles möglich sein wird. Denn wenn wir das nicht tun, dann tun das insbesondere die großen Konzerne wie Google, Facebook, die natürlich sehr stark an solchen Technologien arbeiten."

Software, die erkennen soll, ob Videos echt sind

Auch im Silicon Valley ist man sich der Gefahr bewusst. Entwickler arbeiten bereits an Software, die erkennen soll, ob Videos wirklich echt sind. "Wenn sich jetzt irgendwelche Videos so viral verbreiten im Internet, dann muss man schon sehr vorsichtig sein", warnt Hao Li. "Das Wichtigste ist einfach, dass die Leute wissen, dass das jetzt möglich ist."

Experten sagen: In den nächsten zehn Jahren werden diese Technologien unseren Alltag bestimmen. Im Guten wie im Schlechten. Wir glauben, was wir sehen. Aber darauf verlassen können wir uns nicht mehr.

(Beitrag: Maryam Bonakdar)

Stand: 02.03.2018 10:15 Uhr

9 Bewertungen
Kommentare
Bewerten

Kommentare

Kommentar hinzufügen

Bitte beachten: Kommentare erscheinen nicht sofort, sondern werden innerhalb von 24 Stunden durch die Redaktion freigeschaltet. Es dürfen keine externen Links, Adressen oder Telefonnummern veröffentlicht werden. Bitte vermeiden Sie aus Datenschutzgründen, Ihre E-Mail-Adresse anzugeben. Fragen zu den Inhalten der Sendung, zur Mediathek oder Wiederholungsterminen richten Sie bitte direkt an die Zuschauerredaktion unter info@daserste.de. Vielen Dank!

*
*

* Pflichtfeld (bitte geben Sie aus Datenschutzgründen hier nicht Ihre Mailadresse oder Ähnliches ein)

Kommentar abschicken

Ihr Kommentar konnte aus technischen Gründen leider nicht entgegengenommen werden

Kommentar erfolgreich abgegeben. Dieser wird so bald wie möglich geprüft und danach veröffentlicht. Es gelten die Nutzungsbedingungen von DasErste.de.

Sendetermin

So, 18.02.18 | 23:15 Uhr
Das Erste

Produktion

Norddeutscher Rundfunk
für
DasErste