Gefälscht

Deepfakes: Audio- und Videomanipulation erkennen

Stimmen täuschend echt nach­ahmen? Gesichter in Videos austau­schen, ohne dass es jemandem auffällt? Bis vor wenigen Jahren war der Aufwand dafür enorm. Das hat sich grund­legend geän­dert - eine Gefahr.
Von dpa /

Echte Queen, Spielfilm oder Deepfake - nicht immer leicht herauszufinden. Echte Queen, Spielfilm oder Deepfake? Nicht immer leicht herauszufinden.
picture alliance/dpa/PA Media
Es ist vertrackt: Vor allem bewegten Bildern und Stimmen vertrauen wir Menschen intuitiv. Doch seitdem es möglich ist, selbst dyna­mische Medien wie Videos und Audio­mit­schnitte mit vergleichs­weise wenig Aufwand und Exper­tise in hoher Qualität zu fälschen, heißt es umdenken.

Die täuschend echten Fälschungen werden mit Hilfe künst­licher Intel­ligenz (KI) erstellt und lassen sich bei normalem Hinsehen oder Hören kaum noch von echten Videos oder Stimm­auf­nahmen unter­scheiden, warnt das Bundesamt für Sicher­heit in der Infor­mati­ons­technik (BSI), das die Tech­nologie, Verfahren, Gefahren und Gegen­maß­nahmen auf einer neuen Themen­seite erklärt.

Geboren aus neuro­nalen Netzen

Echte Queen, Spielfilm oder Deepfake - nicht immer leicht herauszufinden. Echte Queen, Spielfilm oder Deepfake? Nicht immer leicht herauszufinden.
picture alliance/dpa/PA Media
Die Fälschungen werden auch als Deepfakes bezeichnet, weil die Verfahren zu ihrer Erstel­lung auf tiefen neuro­nalen Netzen (deep neural networks) basieren.

Und wie schafft man es, Deepfakes nicht auf den Leim zu gehen? Schon allein das Wissen um ihre Exis­tenz und die Möglich­keiten von KI hilft dabei, nicht mehr per se auf die Echt­heit jegli­cher Videos oder Audio-Aufzeich­nungen zu vertrauen. Statt­dessen gilt es, immer auch Aussagen und Plau­sibi­lität kritisch zu hinter­fragen.

Hand­werk­lich nicht immer perfekt

Aber auch tech­nisch kann es durchaus Hinweise geben, die Fälschungen entlarven können. Dazu zählen dem BSI zufolge etwa Arte­fakte bei Gesichts­über­gängen, verwa­schene Konturen, begrenzte Mimik oder unstim­mige Belich­tung bei Videos. Metal­lischer oder mono­toner Klang, falsche Aussprache oder unna­tür­liche Sprech­weise sowie unna­tür­liche Geräu­sche oder Verzö­gerungen sind typi­sche Fehler bei Stimm­fäl­schungen.

Künftig könnte es aber auch kryp­togra­phi­sche Verfahren geben, die die Quelle von Video- oder Audio-Mate­rial eindeutig mit einer Iden­tität verknüpfen, gibt das BSI einen Ausblick darauf, wie zukünftig Deepfakes verhin­dert werden könnten. Dazu zählten auch zahl­reiche Methoden zur auto­mati­sierten Erken­nung mani­pulierter Daten, an denen Wissen­schaft­lerinnen und Wissen­schaftler arbeiten.

Mehr zum Thema Musik