https://snanews.de/20210217/deepfakes-echtheit-gefahr-945832.html
Der Krieg der Deepfakes: Wie falsche Inhalte immer täuschend echter werden
Der Krieg der Deepfakes: Wie falsche Inhalte immer täuschend echter werden
Als Angela Merkel plötzlich 2018 mit dem Gesicht von Donald Trump Reden schwang, war es unterhaltsam bis befremdlich. Aber die Technologie, die solche
2021-02-17T17:20+0100
2021-02-17T17:20+0100
2021-02-17T17:40+0100
künstliche intelligenz
soziale medien
betrug
medien
vertrauen
wissen
/html/head/meta[@name='og:title']/@content
/html/head/meta[@name='og:description']/@content
https://cdnn1.snanews.de/img/07e5/02/11/946102_0:185:3072:1913_1920x0_80_0_0_7a408664fe34a9fdc09a66a79f44d04d.jpg
Als Angela Merkel plötzlich 2018 mit dem Gesicht von Donald Trump Reden schwang, war es unterhaltsam bis befremdlich. Aber die Technologie, die solche Manipulationen möglich macht – sogenannte Deepfakes – müssen nicht bei harmlosen Spielereien stehenbleiben. Trickbetrüger haben bereits mit einem Audio-Deepfake eine Firma um 220.000 Euro erleichtert. Aber nicht nur an der Audiofront wird es brenzlig, auch die Videos machen beängstigende Fortschritte.Über einen solchen Fortschritt berichtet das Portal Digital Trends. Es geht dabei um nichts weniger als die Überlistung bestehender Deepfake-Detektoren. Aber dazu zunächst einmal der Hintergrund: Für die Produktion eines Deepfake-Videos wird die Aufnahme einer Person benötigt, der etwas in den Mund gelegt wird, man nennt sie das Ziel. Dann wird eine andere Person aufgenommen, die das vor der Kamera sagt und tut, was später die andere Person sagen soll. Diese bezeichnet man als Quelle. Und dann überträgt eine Software die Bewegungen des Schauspielers auf die betreffende Person.Deepfake-Detektoren setzen dort an, wo die Software Fehler macht. Unnatürliches Augenblinzeln etwa oder andere Gesichtsbewegungen, die nicht natürlich wirken. Dabei geht es teilweise um extrem kleine Bildbereiche. Und genau diese Bereiche konnten Forscher der Kalifornischen Universität San Diego verfälschen, damit diese nicht mehr als fehlerhaft erkannt werden. Dafür fügen sie in die kritischen Bereiche eines Bilds ein Rauschen hinzu, was der Mensch gar nicht wahrnimmt, das aber dafür sorgt, dass die Detektor-Software eine falsche Zuordnung trifft. Auf diese Weise konnten sie bereits 2017 das Programm dazu bringen, eine Schildkröte als ein Gewehr wahrzunehmen.Dieselben Forscher teilen mit, sie hätten mit ihrem Rauschen über 99 Prozent der gängigen Detektor-Systeme umgehen können, wenn ihnen das Detektormodell bekannt gewesen sei. Will heißen: Diese würden das betreffende Video als echt einstufen. Selbst bei komprimierten Videos zeigte sich das Verfahren als erfolgreich.Ihren Code halten die Forscher entsprechend geheim. Aber das Ganze wird wohl immer weiter so gehen: Deepfakes machen Detektoren nötig, Wissen um die Detektoren macht neue Deepfakes möglich und diese machen wieder neue Detektoren nötig. Das Vertrauen in Medieninhalte in sozialen Netzwerken dürfte mit solchen Entwicklungen in Zukunft weiter schwinden.Ein Aufsatz zu dem Thema wurde auf der virtuellen Konferenz des diesjährigen Workshops zu visuellen Computeranwendungen vorgestellt (WACV21).
https://snanews.de/20210211/wissenschaftler-ohne-politische-agenda-876923.html
SNA
info@snanews.de
+493075010627
MIA „Rosiya Segodnya“
2021
Valentin Raskatov
https://cdnn1.snanews.de/img/07e4/0c/08/72158_0:102:878:980_100x100_80_0_0_af8ce74b99974d9005b21cd12ee131d5.jpg
Valentin Raskatov
https://cdnn1.snanews.de/img/07e4/0c/08/72158_0:102:878:980_100x100_80_0_0_af8ce74b99974d9005b21cd12ee131d5.jpg
Nachrichten
de_DE
SNA
info@snanews.de
+493075010627
MIA „Rosiya Segodnya“
https://cdnn1.snanews.de/img/07e5/02/11/946102_234:0:2965:2048_1920x0_80_0_0_38af0ffad0ac976769ad03a6a3fcc618.jpgSNA
info@snanews.de
+493075010627
MIA „Rosiya Segodnya“
Valentin Raskatov
https://cdnn1.snanews.de/img/07e4/0c/08/72158_0:102:878:980_100x100_80_0_0_af8ce74b99974d9005b21cd12ee131d5.jpg
künstliche intelligenz, soziale medien, betrug, medien, vertrauen, wissen
Der Krieg der Deepfakes: Wie falsche Inhalte immer täuschend echter werden
17:20 17.02.2021 (aktualisiert: 17:40 17.02.2021) Valentin Raskatov
Redakteur und Moderator
Deepfakes, also mit künstlicher Intelligenz hergestellte Fake-Videos, sind nicht nur eine Spielerei. Mit ihrer rasanten Entwicklung stellen sie auch eine große Bedrohung dar – und sie werden immer schlauer. Nun konnten Forscher mit einem neuen Verfahren 99 Prozent der gängigen Detektoren gegen die Falschinhalte überlisten.
Als Angela Merkel plötzlich 2018 mit dem Gesicht von Donald Trump Reden schwang, war es unterhaltsam bis befremdlich. Aber die Technologie, die solche Manipulationen möglich macht – sogenannte Deepfakes – müssen nicht bei harmlosen Spielereien stehenbleiben. Trickbetrüger haben bereits mit einem Audio-Deepfake eine Firma um 220.000 Euro erleichtert. Aber nicht nur an der Audiofront wird es brenzlig, auch die Videos machen beängstigende Fortschritte.
Über einen solchen Fortschritt berichtet das Portal Digital Trends. Es geht dabei um nichts weniger als die Überlistung bestehender Deepfake-Detektoren. Aber dazu zunächst einmal der Hintergrund: Für die Produktion eines Deepfake-Videos wird die Aufnahme einer Person benötigt, der etwas in den Mund gelegt wird, man nennt sie das Ziel. Dann wird eine andere Person aufgenommen, die das vor der Kamera sagt und tut, was später die andere Person sagen soll. Diese bezeichnet man als Quelle. Und dann überträgt eine Software die Bewegungen des Schauspielers auf die betreffende Person.
Deepfake-Detektoren setzen dort an, wo die Software Fehler macht. Unnatürliches Augenblinzeln etwa oder andere Gesichtsbewegungen, die nicht natürlich wirken. Dabei geht es teilweise um extrem kleine Bildbereiche. Und genau diese Bereiche konnten Forscher der Kalifornischen Universität San Diego verfälschen, damit diese nicht mehr als fehlerhaft erkannt werden. Dafür fügen sie in die kritischen Bereiche eines Bilds ein Rauschen hinzu, was der Mensch gar nicht wahrnimmt, das aber dafür sorgt, dass die Detektor-Software eine falsche Zuordnung trifft. Auf diese Weise konnten sie bereits 2017 das Programm dazu bringen, eine Schildkröte als ein Gewehr wahrzunehmen.
Dieselben Forscher teilen mit, sie hätten mit ihrem Rauschen über 99 Prozent der gängigen Detektor-Systeme umgehen können, wenn ihnen das Detektormodell bekannt gewesen sei. Will heißen: Diese würden das betreffende Video als echt einstufen. Selbst bei komprimierten Videos zeigte sich das Verfahren als erfolgreich.
Ihren Code halten die Forscher entsprechend geheim. Aber das Ganze wird wohl immer weiter so gehen: Deepfakes machen Detektoren nötig, Wissen um die Detektoren macht neue Deepfakes möglich und diese machen wieder neue Detektoren nötig. Das Vertrauen in Medieninhalte in sozialen Netzwerken dürfte mit solchen Entwicklungen in Zukunft weiter schwinden.
Ein Aufsatz zu dem Thema wurde auf der virtuellen Konferenz des diesjährigen Workshops zu visuellen Computeranwendungen
vorgestellt (WACV21).