Tag: Audio Synthese

6 Mythen zum Thema Deep Fakes

Das Center for Data Ethics and Innovation hat einen Report ĂŒber das Thema Desinformation und DeepFakes veröffentlicht. Der Report bietet vieles! U.a. wird gezeigt, wie Deep Fakes enstehen und wie sich falsche Informationen verbreiten. Darauf werde ich in anderen BeitrĂ€gen zurĂŒckkommen. Hier geht es um die 6 Mythen zum Thema Deep Fakes.

(Extrahiert aus dem Report: Snapshot Paper – Deepfakes and Audiovisual Disinformation)

Deep Fakes treten vorwiegend in Form von Gesichtsaustausch in Videos auf. 

RealitÀt: Es gibt vier Typen von Deep Fakes: Gesichtsersatz, Gesichtsnachstellung, Gesichtserzeugung und Audiosynthese.

Deepfakes tauchen auf Social-Media-Plattformen in großer Zahl auf

RealitÀt: Auf Social-Media-Plattformen sind nur wenige politische Deepfakes aufgetaucht. Die Anzahl der gefÀlschten pornografischen Videos gibt jedoch Anlass zur Sorge.

Jeder kann ausgefeilte Deepfakes erstellen, die die Messlatte der GlaubwĂŒrdigkeit sprengen. 

RealitĂ€t: WĂ€hrend unterstĂŒtzende Software wie FakeApp es mehr Menschen ermöglicht hat, sich mit Deepfakes zu beschĂ€ftigen, erfordert die hochqualitative Audio- und Bildsynthese immer noch betrĂ€chtliches Fachwissen.

Die beste Methode zum Erkennen von Deepfakes besteht in physiologischen Tests (dem “Eye Blinking”-Test).

RealitĂ€t: Die physiologische Untersuchung von Videos kann langsam und unzuverlĂ€ssig sein. FĂŒr ein systematisches Screening von Deepfakes sind AI-basierte Tools erforderlich, mit denen die Erkennung gefĂ€lschter Inhalte teilweise automatisiert werden kann. Die Tools mĂŒssen außerdem regelmĂ€ĂŸig aktualisiert werden.

Neue Gesetze sind eine schnelle Lösung fĂŒr den Umgang mit Deepfakes. 

RealitĂ€t: Versuche, Gesetze gegen Deepfakes zu erlassen, können sich als wirkungslos erweisen, da es sehr schwierig ist, die Herkunft der behandelten Inhalte zu bestimmen. Die Gesetzgebung könnte auch den nĂŒtzlichen Einsatz visueller und akustischer Manipulationen gefĂ€hrden.

Deepfakes sind wie mit Photoshop erstellte Bilder. Die Menschen werden sich an sie gewöhnen. 

RealitĂ€t: Dies ist eine Annahme, keine Tatsache. Es gibt nur unzureichende Untersuchungen darĂŒber, wie Deepfakes das Verhalten und die Überzeugungen der Zuschauer beeinflussen.