Technische Entwicklung: Videos fälschen für Jedermann

Für unseren Merkel-Fake haben wir die Software Myfakeapp mit verschiedenen Videos der echten Angela Merkel gefüttert. Auf dieser Grundlage erlernt das Programm die Mimik - und rechnet sie in das digitale Video unseres Doubles mit ein. Das Ergebnis ist noch nicht perfekt – aber passabel. Und technisch ist abzusehen, dass es bald noch wesentlich einfacher sein dürfte, solche Deepfakes zu erstellen. 

Miro-Carsten Weber und Reinhard Weber beim Bearbeiten des Fakevideos.
Miro-Carsten Weber und Reinhard Weber beim Bearbeiten des Fakevideos. | Bild: Das Erste

Das viele Jahrzehnte alte, sogenannte Mooresche Gesetz besagt, stark vereinfacht gesagt, dass sich die Rechenleistung von Computern etwa alle eineinhalb bis zwei Jahre verdoppelt. Neue Technologien, derzeit vor allem die künstliche Intelligenz und in der Zukunft womöglich auch Quantencomputer, beschleunigen diese Entwicklung noch erheblich. 
Bedenkt man, dass es professionellen Programmierern bereits heute möglich ist, ein praktisch nicht vom Original unterscheidbares Video des Ex-US-Präsidenten Barack Obama zu kreieren, um ihn wild auf Donald Trump schimpfen zu lassen, dann gehört nicht viel Phantasie dazu, um sich vorzustellen, was in ein paar Jahren schon bloß mit einem Smartphone alles möglich sein könnte.

Fakes als Massenphänomen?

Schon heute kann man etwa mit der vor allem bei jungen Menschen beliebten Social-Media-App Snapchat einen sogenannten Face-Swap durchführen – das heißt, das Gesicht einer Person in einem Video auf das Gesicht einer anderen Person montieren. Mit den frühen Smartphones vor acht oder zehn Jahren wäre eine solche Funktion in einer App noch undenkbar gewesen. 
Steht uns eine nahe Zukunft mit Deepfakes als Massenphänomen bevor? In der jeder mit seinem Handy jeden Promi oder Politiker sagen lassen kann, was er möchte? Droht die Informations-Apokalypse mit einem völligen Vertrauensverlust in die digitalen Medien – weil nicht mehr unterscheidbar ist, was Wahrheit und was Fälschung ist? 



Die Darpa, eine Behörde des US-Verteidigungsministeriums, die an so futuristischen Dingen wie Weltraumwaffen und autonomen Kampfrobotern arbeitet, hat kürzlich einen Wettbewerb unter Wissenschaftlern ausgerufen. Es geht um Technologien, mit denen man Deep Fakes automatisiert aufgrund einer Auswertung ihrer Datengrundlage erkennen können soll – wenn das menschliche Gehirn dazu nicht mehr in der Lage ist. Allein das zeigt, welches Bedrohungspotenzial in Deep Fakes steckt.

Bericht: Florian Regensburger

0 Bewertungen
Kommentare
Bewerten

Kommentare

Kommentar hinzufügen

Bitte beachten: Kommentare erscheinen nicht sofort, sondern werden innerhalb von 24 Stunden durch die Redaktion freigeschaltet. Es dürfen keine externen Links, Adressen oder Telefonnummern veröffentlicht werden. Bitte vermeiden Sie aus Datenschutzgründen, Ihre E-Mail-Adresse anzugeben. Fragen zu den Inhalten der Sendung, zur Mediathek oder Wiederholungsterminen richten Sie bitte direkt an die Zuschauerredaktion unter info@ard.de. Vielen Dank!

*
*

* Pflichtfeld (bitte geben Sie aus Datenschutzgründen hier nicht Ihre Mailadresse oder Ähnliches ein)

Kommentar abschicken

Ihr Kommentar konnte aus technischen Gründen leider nicht entgegengenommen werden

Kommentar erfolgreich abgegeben. Dieser wird so bald wie möglich geprüft und danach veröffentlicht. Es gelten die Nutzungsbedingungen von DasErste.de.