Registrierung erfolgreich abgeschlossen!
Klicken Sie bitte den Link aus der E-Mail, die an geschickt wurde

Der Krieg der Deepfakes: Wie falsche Inhalte immer täuschend echter werden

© AFP 2020 / FABRICE COFFRINIDeepfake-Technologie wird auf einem Bildschirm beim Weltwirtschaftsforum in Davos gezeigt (Archivbild)
Deepfake-Technologie wird auf einem Bildschirm beim Weltwirtschaftsforum in Davos gezeigt (Archivbild) - SNA, 1920, 17.02.2021
Abonnieren
Deepfakes, also mit künstlicher Intelligenz hergestellte Fake-Videos, sind nicht nur eine Spielerei. Mit ihrer rasanten Entwicklung stellen sie auch eine große Bedrohung dar – und sie werden immer schlauer. Nun konnten Forscher mit einem neuen Verfahren 99 Prozent der gängigen Detektoren gegen die Falschinhalte überlisten.
Als Angela Merkel plötzlich 2018 mit dem Gesicht von Donald Trump Reden schwang, war es unterhaltsam bis befremdlich. Aber die Technologie, die solche Manipulationen möglich macht – sogenannte Deepfakes – müssen nicht bei harmlosen Spielereien stehenbleiben. Trickbetrüger haben bereits mit einem Audio-Deepfake eine Firma um 220.000 Euro erleichtert. Aber nicht nur an der Audiofront wird es brenzlig, auch die Videos machen beängstigende Fortschritte.
Meinungsdruck (Symbolbild) - SNA, 1920, 11.02.2021
Was ist rassistisch an „Mentalität“? – Wissenschaftler wollen Lehre ohne politische Agenda
Über einen solchen Fortschritt berichtet das Portal Digital Trends. Es geht dabei um nichts weniger als die Überlistung bestehender Deepfake-Detektoren. Aber dazu zunächst einmal der Hintergrund: Für die Produktion eines Deepfake-Videos wird die Aufnahme einer Person benötigt, der etwas in den Mund gelegt wird, man nennt sie das Ziel. Dann wird eine andere Person aufgenommen, die das vor der Kamera sagt und tut, was später die andere Person sagen soll. Diese bezeichnet man als Quelle. Und dann überträgt eine Software die Bewegungen des Schauspielers auf die betreffende Person.
Deepfake-Detektoren setzen dort an, wo die Software Fehler macht. Unnatürliches Augenblinzeln etwa oder andere Gesichtsbewegungen, die nicht natürlich wirken. Dabei geht es teilweise um extrem kleine Bildbereiche. Und genau diese Bereiche konnten Forscher der Kalifornischen Universität San Diego verfälschen, damit diese nicht mehr als fehlerhaft erkannt werden. Dafür fügen sie in die kritischen Bereiche eines Bilds ein Rauschen hinzu, was der Mensch gar nicht wahrnimmt, das aber dafür sorgt, dass die Detektor-Software eine falsche Zuordnung trifft. Auf diese Weise konnten sie bereits 2017 das Programm dazu bringen, eine Schildkröte als ein Gewehr wahrzunehmen.
Dieselben Forscher teilen mit, sie hätten mit ihrem Rauschen über 99 Prozent der gängigen Detektor-Systeme umgehen können, wenn ihnen das Detektormodell bekannt gewesen sei. Will heißen: Diese würden das betreffende Video als echt einstufen. Selbst bei komprimierten Videos zeigte sich das Verfahren als erfolgreich.
Ihren Code halten die Forscher entsprechend geheim. Aber das Ganze wird wohl immer weiter so gehen: Deepfakes machen Detektoren nötig, Wissen um die Detektoren macht neue Deepfakes möglich und diese machen wieder neue Detektoren nötig. Das Vertrauen in Medieninhalte in sozialen Netzwerken dürfte mit solchen Entwicklungen in Zukunft weiter schwinden.
Ein Aufsatz zu dem Thema wurde auf der virtuellen Konferenz des diesjährigen Workshops zu visuellen Computeranwendungen vorgestellt (WACV21).
Newsticker
0
Um an der Diskussion teilzunehmen,
loggen Sie sich ein oder registrieren Sie sich
loader
Chats
Заголовок открываемого материала