Forscher der Firma Nvidia entwickelten eine bildübersetzende künstliche Intelligenz, die in erstaunlich kurzer Zeit Filme mit Fake-Inhalten produziert. Aus einer sommerlichen Straße wird so eine täuschend echte Winterlandschaft, mit denselben Autos, Schildern und Bäumen – ohne dass die KI jemals diese Umgebung während der kalten Jahreszeit »gesehen« hätte. Bald dürfen wir in der Online-Welt wirklich nicht mehr unseren Augen trauen!


Was ist real: die Sommer- oder Winterlandschaft? / Foto: Screenshot aus Youtube-Video von Nvidia

Zwei selbstlernende Systeme im Netzwerk zusammengefasst

Im Oktober erst präsentierte dasselbe Unternehmen absolut realistische Fotos von Menschen, die es überhaupt nicht gibt. Nun haben sich die Wissenschaftler daran gemacht, ein System zu entwickeln, das ganz reale Videoaufnahmen verändert. Aus Tag wird Nacht, aus Sommer Winter, aus einer Hauskatze ein Affe – und das mit minimalem Trainingsaufwand für die KI. Möglich macht dies ein Algorithmus namens »generative adversarial network«, kurz GAN. Im GAN-System werden zwei selbstlernende Netzwerke zusammengefasst; das eine erledigt die eigentliche Arbeit, während das andere kritisiert und verbessert – beinahe wie in einer perfekten Ehe! Diesem digitalen Team gelingt es tatsächlich, sich die besagte sommerliche Straße als Winterlandschaft bildhaft vorzustellen, ohne diese jemals mit Schnee und Eis gesehen zu haben.

Im Video: Image Translation Nummer 06


Fake-Videos werden in Zukunft kaum noch zu entlarven sein

Über die zukünftigen Einsatzmöglichkeiten lässt sich jetzt schon trefflich spekulieren: Autonome Autos könnten damit lernen, sich in Gebieten, wo es sehr selten regnet, bei Regenwetter zurechtzufinden. Wenn dann tatsächlich mal ein Wolkenbruch kommt, erkennt das System trotzdem die Umgebung perfekt wieder. Menschen, die im Sommer Ausschau nach einem Eigenheim halten, können sich alle Immobilien virtuell zu jeder Jahreszeit ansehen – und zukünftige Hochzeitspaare werden die Chance erhalten, den Ort ihrer Feier zur passenden Jahreszeit zu besichtigen, obwohl diese erst in ein paar Monaten beginnt. Doch natürlich sind mit der bildübersetzenden Software auch jede Menge Schummeleien möglich: Videomaterial wird deshalb irgendwann vor Gericht keinerlei Beweiskraft mehr haben und das, was wir auf Youtube sehen, lässt sich noch viel schwieriger als Fake entlarven als heute.

Zugabe gefällig?

Quelle: futurism.com

Teile den Artikel oder unterstütze uns mit einer Spende.
PayPal SpendeAmazon Spendenshopping

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.