Wie sich Fake-Porno-Gegner wehren

KI-generierte Videos, die das Gesicht einer Person auf dem Körper einer anderen zeigen, werden als „Deepfakes“ bezeichnet. Sie werden immer einfacher zu machen und gegen Frauen zu bewaffnen. (Jhaan Elker/Washington Post)

Die beste Hoffnung, computergenerierte Fake-Porno-Videos zu bekämpfen, könnte aus einer überraschenden Quelle kommen: der Software für künstliche Intelligenz selbst.

Technische Experten und Online-Tracker sagen, dass sie Tools entwickeln, die diese „Deepfakes“ automatisch erkennen könnten, indem sie die Fähigkeiten der Software dagegen nutzen und Bilderkennungsalgorithmen einsetzen, die helfen könnten, zu erkennen, wie ihre Bilder den Glauben biegen.

WpHolen Sie sich die volle Erfahrung.Wählen Sie Ihren PlanPfeilRechts

Die Defense Advanced Research Projects Agency, der High-Tech-Forschungszweig des Pentagon, bekannt als DARPA, finanziert Forscher mit der Hoffnung, ein automatisiertes System zu entwickeln, das die Arten von Fälschungen identifizieren könnte, die in Propagandakampagnen oder politischer Erpressung verwendet werden könnten. Militärbeamte haben die Verträge mit dem Codenamen „MediFor“ für „Medienforensik“ beworben, indem sie sagten, sie wollten „das Spielfeld für digitale Bilder ausgleichen, das derzeit den Manipulator begünstigt“.

Die Werbegeschichte wird unter der Werbung fortgesetzt

Das Fotoverifizierungs-Start-up Truepic prüft Videos auf Manipulationen und speichert die Originale in einem digitalen Tresor, damit andere Zuschauer – Versicherungsagenturen, Online-Shopper, Ermittler zur Betrugsbekämpfung – dies selbst bestätigen können. Das Unternehmen möchte seine Software in eine Reihe von Sensoren und Social-Media-Plattformen einbetten, um das Filmmaterial anhand eines so genannten „definitiven Punkts der Wahrheit“ zu validieren.

Der CEO des Unternehmens, Jeffrey McGregor, sagte, seine Ingenieure arbeiten daran, Detektivtechniken zu verfeinern, indem sie nach den aufschlussreichen Werbegeschenken von Fälschungen suchen: dem sanften Flattern der Haare, der Bewegung der Ohren, der Lichtreflexion in ihren Augen. Ein Computer-Vision-Ingenieur von Truepic entwarf einen Test, um nach dem Blutpuls in der Stirn einer Person zu suchen, sagte er.



Der Aufstieg des Fake-Spottings hat jedoch einen technischen Blitz der Erkennung, Verfolgung und Flucht ausgelöst, in dem digitale Betrüger daran arbeiten, immer mehr betrügerische Fälschungen zu verfeinern und herzustellen. In einigen neueren pornografischen Deepfakes scheinen die veränderten Gesichter natürlich zu blinzeln – ein Zeichen dafür, dass die Schöpfer bereits einen der verräterischen Indikatoren früher Fälschungen erobert haben, bei denen die Schauspieler nie die Augen geschlossen haben.

Die Werbegeschichte wird unter der Werbung fortgesetzt

Hany Farid, ein Informatikprofessor am Dartmouth College und Truepic-Berater, sagte, er erhalte jeden Tag eine neue Bitte von jemandem, der ihn bittet, zu untersuchen, was ihrer Meinung nach ein Deepfake sein könnte. Aber die Gruppe von Forensikern, die am Bau dieser Systeme arbeitet, sei „noch völlig unterlegen“, sagte er.

Auch die zugrunde liegende Technologie entwickelt sich weiter: Im September sagten Forscher von DeepMind, der bahnbrechenden KI-Firma der Google-Muttergesellschaft Alphabet, sie hätten die Programme hinter Deepfakes, sogenannte generative adversarial Networks oder GANs, „im größten Maßstab“ trainiert noch versucht“, so dass sie qualitativ hochwertige gefälschte Bilder erstellen konnten, die realistischer denn je aussahen.

„Die Gegenangriffe sind im Laufe der Zeit nur noch schlimmer geworden, und Deepfakes sind die Anhäufung davon“, sagte McGregor. 'Es wird wahrscheinlich für immer ein Katz-und-Maus-Spiel bleiben.'

Kommentar Kommentare GiftOutline Geschenkartikel Loading...