Schon vor rund zwei Jahren sorgten sogenannte Deep-Fakes für Aufregung. Damals ging es um eine Anwendung namens Deepnude. Mit dieser konnte man aus ganz normale Aufnahmen von Frauen vergleichsweise einfach durchaus realistische aussehende Nacktbilder machen. Inzwischen wurde dieser Dienst zwar eingestellt. Die negativen Auswirkungen auf zahlreiche Frauen sind allerdings dokumentiert. So wurden teilweise gefälschte Nacktbilder von Journalistinnen verbreitet, um diese unter Druck zu setzen. Dies hatte in mehreren Fällen massive Belästigungen zur Folge. Inzwischen scheint sich die Technologie zudem noch einmal deutlich weiter entwickelt zu haben. So berichtet der KI-Forscher Henry Ajder von einer neuen App, mit der man innerhalb von wenigen Sekunden neue Gesichter in bereits vorhandene Videoaufnahmen implementieren kann. Theoretisch könnte dies ein interessanter Ansatz für die Film- oder Werbebranche sein. Tatsächlich scheint die Anwendung aber für etwas anderes gedacht zu sein.


Theoretisch kann man mit der Technologie auch harmlose Sachen anstellen.

Die App ist speziell für die Manipulation von Pornofilmen gedacht

Denn mit der App lassen sich auch eigentlich unbeteiligte Gesichter in Pornoaufnahmen einsetzen. Bedenkt man nun, welche Probleme schon Deepnude mit sich brachte, dürften die Auswirkungen entsprechender Videos für die Betroffenen noch einmal deutlich schlimmer sein. Noch allerdings verfügt die App, deren Namen bewusst nicht medial kommuniziert wird, nur über einen kleinen Benutzerkreis. Sie scheint sich zudem zumindest teilweise noch in der Entwicklung zu befinden. Zumindest können die Nutzer Feedback in Foren geben. Die Entwickler machen auch kein Geheimnis daraus, dass ihre Anwendung vor allem für die Manipulation von Porno-Videos gedacht ist. Experten halten eine solche Nutzung für ethisch absolut nicht vertretbar. Gleichzeitig befürchten sie aber, dass sich die App unter Umständen rasant verbreiten könnte. Für besonders problematisch in diesem Zusammenhang halten die Experten die Tatsache, dass sich die Anwendung extrem leicht bedienen lässt. Selbst Laien können so problemlos aktiv werden.

In China ist die Veröffentlichung von Deep-Fakes bereits verboten

In aller Regel handelt es sich bei den so erstellten Videos um sogenannten „non-consensual Porn“. Das Einverständnis der Personen, deren Gesichter zweckentfremdet werden, wird also nicht eingeholt. Dies ist grundsätzlich zwar verboten, lässt sich im Einzelfall aber oftmals nur schwer zurückverfolgen. Einige Regierungen wollen daher schon einen Schritt früher ansetzen. So wird in Kalifornien intensiv über eine gesetzliche Regulierung für Deep-Fake-Anwendungen diskutiert. In China ist man in diesem Punkt schon weiter: Dort dürfen gar keine Aufnahmen mehr veröffentlicht werden, die durch Deep-Fake-Apps verändert wurden. Auch in anderen Ländern wird versucht, den Missbrauch einzudämmen. So sind im Laufe der Zeit zahlreiche Webseiten entstanden, auf denen bei Frauen per Mausklick die Kleider entfernt werden. Immer wieder gelingt es, einige dieser Seiten vom Netz zu nehmen. In aller Regel steht aber schon wenig später eine neue entsprechende Webseite bereit.


Via: Technology Review

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.