Themenspezial: Verbraucher & Service Nach Giffey-Vorfall

"Deep Fake": Wenn man den Augen nicht trauen kann

Fran­ziska Giffey war sich kurz­zeitig sicher, dass in einer Video­kon­ferenz tatsäch­lich Kiews Bürger­meister Klitschko zu sehen ist. Sie hatte es aber mit einem soge­nannten Deep Fake zu tun. Wie funk­tio­niert die Fälschung mit Hilfe der künst­lichen Intel­ligenz?
Von dpa /

Giffey Klitschko Deep Fake Video Telefonat Ein von der Senatskanzlei in Berlin zur Verfügung gestelltes Foto zeigt das Fake Videotelefonat zwischen einem vorgeblichen Vitali Klitschko mit Berlins Regierender Bürgermeisterin Franziska Giffey (SPD).
picture alliance/dpa/Senatskanzlei Berlin
Viel­leicht hätte Berlins Regie­rende Bürger­meis­terin Fran­ziska Giffey (SPD) miss­trau­isch werden sollen, dass ihr Gesprächs­partner Vitali Klitschko mitten im Sommer mit dicker Jacke und Pull­over zur verein­barten Video­kon­ferenz erschienen war. So dauerte es einige Zeit, bis Giffey und ihr Team wegen der merk­wür­digen Fragen des vermeint­lichen Bürger­meis­ters von Kiew miss­trau­isch wurden. "Es gab keine Anhalts­punkte dafür, dass die Video­kon­ferenz nicht mit einer echten Person geführt wird. Allem Anschein nach handelt es sich um Deep Fake", erklärte die Senats­kanzlei auf Twitter.

Was ist ein soge­nannter Deep Fake?

Damit wird ein Medi­enin­halt bezeichnet, der mit Tech­niken künst­licher Intel­ligenz (KI) mani­puliert wurde. Dabei kann es sich beispiels­weise um ein vermeint­lich authen­tisches Video oder eine Audio-Aufnahme handeln. Der Begriff "Deep Fake" ist von den Worten "Deep Lear­ning" und "Fake" (Fälschung) abge­leitet. Deep Lear­ning ist ein Verfahren in der künst­lichen Intel­ligenz, bei dem das System durch eine inten­sive Beob­ach­tung lernt. Dabei werden Lippen­bewe­gungen, Mimik und Körper­hal­tung analy­siert. Beob­achtet wird auch, zum Beispiel wie sich eine Person bewegt oder wie sie spricht. Giffey Klitschko Deep Fake Video Telefonat Ein von der Senatskanzlei in Berlin zur Verfügung gestelltes Foto zeigt das Fake Videotelefonat zwischen einem vorgeblichen Vitali Klitschko mit Berlins Regierender Bürgermeisterin Franziska Giffey (SPD).
picture alliance/dpa/Senatskanzlei Berlin

Wie kam der Fake-Klitschko in die Video­kon­ferenz?

Für die Auftritte des Fake-Klitschko bei Giffey und anderen euro­päi­schen Bürger­meis­tern wurde mit hoher Wahr­schein­lich­keit Video­mate­rial eines echten Klitschko-Inter­views mit dem ukrai­nischen Jour­nalisten Dmytro Hordon verwendet. Dabei wurden in Echt­zeit die Lippen­bewe­gungen aus dem Video mit den Aussagen desje­nigen zusam­men­geführt, der tatsäch­lich mit Giffey gespro­chen hat.

Seit wann gibt es Deep-Fake-Systeme?

Als Meilen­stein in der Entwick­lung von Systemen, die für solche Video­mani­pula­tionen geeignet sind, gilt ein Expe­riment der Univer­sity of Washington. 2017 stellten Forscher der Univer­sität Algo­rithmen vor, die in der Lage waren, belie­bige Audio­clips in ein realis­tisches, lippen­syn­chrones Video der Person umzu­wan­deln. So legten die Wissen­schaftler dem ehema­ligen US-Präsi­denten Barack Obama heikle Aussagen zu Themen wie Terro­rismus oder Massen­arbeits­losig­keit virtuell in den Mund.

Haben die Forscher damit nicht eine Monster-Tech­nologie geschaffen?

Die Wissen­schaftler wollten eigent­lich ein System entwi­ckeln, um die Bild­qua­lität bei Video­kon­ferenzen zu verbes­sern. Da das Strea­ming von Audio über das Internet weit weniger Band­breite benö­tigt als Video, wollte man den Ton nutzen, um daraus ein Video in viel besserer Qualität zu produ­zieren. Die Wissen­schaftler disku­tierten damals aber schon die Gefahr, dass diese Tech­nologie miss­braucht werden kann.

Braucht man für Deep Fakes einen Super­com­puter?

In den App-Stores gibt es etliche Anwen­dungen, die eigent­lich dazu dienen sollen, Selfies zu opti­mieren oder Porträts zu retu­schieren. Doch diese Apps ermög­lichen es auch, in Videos die Gesichter auszu­tau­schen. Andere Programm wandeln Fotos in animierte Videos um. Bei der Bild­qua­lität stoßen diese Apps jedoch schnell an Grenzen. Für ausge­klü­gelte Deep-Fake-Atta­cken auf Poli­tiker benö­tigt man derzeit noch leis­tungs­fähige Rechner.

Setzen Krimi­nelle Deep-Fake-Technik ein?

Ja. Zum einen kann die Technik für böswil­lige Fake-Videos miss­braucht werden, mit denen sich die Täter strafbar machen. Dazu gehören gefälschte Sex-Videos, bei denen das Gesicht des Opfers in Pornos einge­baut wird. Deep Fakes werden aber auch beispiels­weise von Krimi­nellen verwendet, um betrü­geri­sche Geld­über­wei­sungen zu veran­lassen. Beim Chef-Betrug erhält beispiels­weise ein Buch­halter einer Firma eine mani­pulierte Sprach­notiz seiner Chefin, in der sie eine Über­wei­sung auf ein bestimmtes Bank­konto anordnet. Der Absender ist wie die Audio­auf­nahme gefälscht.

Die Technik der Video­mani­pula­tion wird aber auch von Straf­ver­fol­gungs­behörden verwendet. So hat die nieder­län­dische Polizei in diesem Früh­jahr einen Teen­ager fast 20 Jahre nach dessen gewalt­samem Tod in einem Video digital zum Leben erweckt - und daraufhin Dutzende Hinweise erhalten.

Wer steht hinter dem Klitschko-Fake?

Der Gesprächs­ver­lauf legt die Vermu­tung nahe, dass dahinter pro-russi­sche Kräfte stecken. Aller­dings kann eine Zuord­nung derzeit nicht zwei­fels­frei vorge­nommen werden, auch weil die wahren Täter oft Spuren hinter­lassen, die bewusst in die falsche Rich­tung zeigen. Denkbar ist beispiels­weise auch, dass eine poli­tische Spaß­gue­rilla Giffey und ihre Amts­kol­legen in Wien, Buda­pest und Madrid in Miss­kredit bringen will.

Wie kann man Deep Fakes erkennen?

Das wird immer schwerer fallen. Die Algo­rithmen der künst­lichen Intel­ligenz und die verwen­deten Hard­ware-Systeme werden künftig in der Lage sein, gefälschtes Video­mate­rial zu produ­zieren, das absolut authen­tisch aussieht. Man wird also seinen Augen und Ohren allein nicht mehr unbe­dingt vertrauen können. Um so wich­tiger ist es, mit Logik und gesundem Menschen­ver­stand aufse­hen­erre­gende Video­clips in Frage zu stellen. Bei einer völlig über­raschenden Entwick­lung oder weit­rei­chenden Aussage, sollten sich Nutze­rinnen und Nutzer stets fragen: Wie wahr­schein­lich ist es, dass sie auf diese Weise verbreitet wird? Manchmal kann auch künst­liche Intel­ligenz bei der Entde­ckung von Fake-KI helfen: So kann man auf der Website deepware.ai Videos oder Links zu Videos hoch­laden, um eine Einschät­zung zu erhalten, ob es sich dabei um Deep Fakes handelt.

Video-Konfe­renzen sind nicht nur für Geschäfts­kunden, sondern auch unter Freunden, in der Familie oder bei Vereinen ein unver­zicht­bares Kommu­nika­tions­mittel. Wir verglei­chen die wich­tigsten kosten­losen Dienste.

Mehr zum Thema Video