Technische Entwicklung: Videos fälschen für Jedermann

Für unseren Merkel-Fake haben wir die Software Myfakeapp mit verschiedenen Videos der echten Angela Merkel gefüttert. Auf dieser Grundlage erlernt das Programm die Mimik - und rechnet sie in das digitale Video unseres Doubles mit ein. Das Ergebnis ist noch nicht perfekt – aber passabel. Und technisch ist abzusehen, dass es bald noch wesentlich einfacher sein dürfte, solche Deepfakes zu erstellen. 

Miro-Carsten Weber und Reinhard Weber beim Bearbeiten des Fakevideos.
Miro-Carsten Weber und Reinhard Weber beim Bearbeiten des Fakevideos. | Bild: Das Erste

Das viele Jahrzehnte alte, sogenannte Mooresche Gesetz besagt, stark vereinfacht gesagt, dass sich die Rechenleistung von Computern etwa alle eineinhalb bis zwei Jahre verdoppelt. Neue Technologien, derzeit vor allem die künstliche Intelligenz und in der Zukunft womöglich auch Quantencomputer, beschleunigen diese Entwicklung noch erheblich. 
Bedenkt man, dass es professionellen Programmierern bereits heute möglich ist, ein praktisch nicht vom Original unterscheidbares Video des Ex-US-Präsidenten Barack Obama zu kreieren, um ihn wild auf Donald Trump schimpfen zu lassen, dann gehört nicht viel Phantasie dazu, um sich vorzustellen, was in ein paar Jahren schon bloß mit einem Smartphone alles möglich sein könnte.

Fakes als Massenphänomen?

Schon heute kann man etwa mit der vor allem bei jungen Menschen beliebten Social-Media-App Snapchat einen sogenannten Face-Swap durchführen – das heißt, das Gesicht einer Person in einem Video auf das Gesicht einer anderen Person montieren. Mit den frühen Smartphones vor acht oder zehn Jahren wäre eine solche Funktion in einer App noch undenkbar gewesen. 
Steht uns eine nahe Zukunft mit Deepfakes als Massenphänomen bevor? In der jeder mit seinem Handy jeden Promi oder Politiker sagen lassen kann, was er möchte? Droht die Informations-Apokalypse mit einem völligen Vertrauensverlust in die digitalen Medien – weil nicht mehr unterscheidbar ist, was Wahrheit und was Fälschung ist? 



Die Darpa, eine Behörde des US-Verteidigungsministeriums, die an so futuristischen Dingen wie Weltraumwaffen und autonomen Kampfrobotern arbeitet, hat kürzlich einen Wettbewerb unter Wissenschaftlern ausgerufen. Es geht um Technologien, mit denen man Deep Fakes automatisiert aufgrund einer Auswertung ihrer Datengrundlage erkennen können soll – wenn das menschliche Gehirn dazu nicht mehr in der Lage ist. Allein das zeigt, welches Bedrohungspotenzial in Deep Fakes steckt.

Bericht: Florian Regensburger