Ein zwielichtiger KI-Dienst hat Tausende von Frauenfotos in gefälschte Akte verwandelt: 'Make Fantasy eine Realität'

Ein frei im Web verfügbarer künstlicher Intelligenzdienst wurde verwendet, um mehr als 100.000 Frauenbilder ohne Wissen oder Zustimmung der Frauen in Nacktfotos zu verwandeln, was die Befürchtung einer neuen Welle schädlicher „Deepfakes“ weckte, die für Belästigung oder Erpressung verwendet werden könnten.

WpHolen Sie sich die volle Erfahrung.Wählen Sie Ihren PlanPfeilRechts

Nutzer des automatisierten Dienstes können anonym ein Foto einer bekleideten Frau einreichen und erhalten eine veränderte Version ohne Kleidung. Die KI-Technologie, die auf großen Datenbanken mit tatsächlichen Aktfotos trainiert wurde, kann Fälschungen mit scheinbar lebensechter Genauigkeit erzeugen, die den Hautton anpassen und Brüste und Genitalien austauschen, wo früher Kleidung war.

Die Gesichter der Frauen bleiben deutlich sichtbar und es werden keine Etiketten an die Bilder angehängt, um sie als Fälschung zu kennzeichnen. Einige der Originalbilder zeigen Mädchen unter 18 Jahren.

Die Geschichte geht unter der Werbung weiter

Der Dienst, der es Menschen ermöglicht, über einen automatisierten „Chatbot“ in der verschlüsselten Messaging-App Telegram neue Bestellungen aufzugeben, wurde erstmals von Forschern von . entdeckt Sensibilität , ein in Amsterdam ansässiges Cybersicherheits-Start-up, das seine Ergebnisse mit der Washington Post teilte.

Werbung

Der Chatbot und mehrere andere angeschlossene Kanäle wurden von mehr als 100.000 Mitgliedern weltweit genutzt, fanden die Forscher heraus. In einer internen Umfrage gaben die Nutzer des Bots an, dass etwa 63 Prozent der Menschen, die sie ausziehen wollten, Mädchen oder Frauen waren, die sie aus dem wirklichen Leben kannten.

KI-generierte Videos, die das Gesicht einer Person auf dem Körper einer anderen zeigen, werden als „Deepfakes“ bezeichnet. Sie werden immer einfacher herzustellen und gegen Frauen zu waffen. (Drew Harwell, Jhaan Elker/Washington Post)



Giorgio Patrini, der Vorstandsvorsitzende der Gruppe, sagte, der Chatbot signalisiere einen dunklen Wandel in der Art und Weise, wie die Technologie verwendet wird, von gefälschten Bildern von Prominenten und bekannten Persönlichkeiten hin zu ahnungslosen Frauen fernab der Öffentlichkeit.

Die Geschichte geht unter der Werbung weiter

„Tatsache ist, dass jeder von uns jetzt bedroht ist, nur weil wir einen Social-Media-Account haben und Fotos von uns und unserem Leben öffentlich veröffentlichen“, sagte Patrini in einem Interview. „Allein eine Online-Persona zu haben, macht uns anfällig für diese Art von Angriff.“

Das Wachstum des Chatbots signalisiert, wie schnell die Technologie hinter gefälschten Bildern allgegenwärtig geworden ist.

Werbung

Vor zehn Jahren hätte die Erstellung einer ähnlich überzeugenden Fälschung fortschrittliche Fotobearbeitungswerkzeuge und beträchtliches Geschick erfordert. Noch vor einigen Jahren erforderte die Erstellung eines lebensechten Fake-Akts mit KI-Technologie – wie etwa die „Deepfake“-Pornovideos, in denen weibliche Prominente, Journalisten und andere Frauen in Sexszenen eingeblendet wurden – große Mengen an Bilddaten und Rechenressourcen.

Fake-Porno-Videos werden als Waffe eingesetzt, um Frauen zu belästigen und zu demütigen: „Jeder ist ein potenzielles Ziel“

Aber mit dem Chatbot ist das Erstellen eines nackten Renderings des Körpers einer Person so einfach wie das Senden eines Bildes von Ihrem Telefon. Der Dienst stellt auch all diese neu generierten gefälschten Akte in Fotogalerien zusammen, die täglich aktualisiert werden; mehr als 25.000 Konten haben bereits tägliche Updates abonniert.

Die Geschichte geht unter der Werbung weiter

Die größte Benutzerbasis des Bots befindet sich laut internen Umfragen in Russland, obwohl die Mitglieder auch aus den USA und aus ganz Europa, Asien und Südamerika stammen.

Werbung

Neue Benutzer können einige ihrer ersten gefälschten Akte kostenlos anfordern, werden jedoch aufgefordert, für die weitere Nutzung zu bezahlen. Ein Anfängertarif bietet neuen Nutzern 100 gefälschte Fotos über sieben Tage zu einem Preis von 100 russischen Rubel oder etwa 1,29 US-Dollar. „Paid Premium“-Mitglieder können verlangen, dass gefälschte Nacktfotos ohne Wasserzeichen erstellt und vor dem öffentlichen Kanal ausgeblendet werden.

Der Administrator des Chatbots, den The Post am Montag über Nachrichten auf Telegram interviewte, lehnte es ab, ihren Namen zu nennen, verteidigte das Tool jedoch als harmlose Form des sexuellen Voyeurismus und sagte, dass seine Betreiber keine Verantwortung für die Frauen übernehmen, die von seiner Benutzerbasis angegriffen werden. Als Anspielung auf die Jungs-werden-Jungen-Haltung zeigen die Logos des Dienstes einen lächelnden Mann und eine Frau, die von einer Röntgenbrille angestarrt werden.

Die Geschichte geht unter der Werbung weiter

Aber Technologie- und Rechtsexperten argumentieren, dass die Software die eigenen Fotos von Frauen gegen sie bewaffnet, Frauen für eine gesichtslose Gruppe von Fremden sexualisiert und ein neues Zeitalter fabrizierter Rachepornos ankündigt.

Werbung

Einige Tech-Giganten haben sich gegen Deepfakes und andere „manipulierte Medien“ gestellt. Da der Quellcode des Systems jedoch bereits von Online-Nachahmern weit verbreitet ist, sehen die Experten keinen klaren Weg, ähnliche Software daran zu hindern, gefälschte Nacktbilder im unregulierten Web zu erstellen, zu hosten und zu teilen.

Einige der angesprochenen Frauen sind beliebte Entertainer oder Social-Media-Influencer mit einem großen Publikum. Aber viele von denen, die auf öffentlich zugänglichen Fotos zu sehen sind, die vom Bot produziert wurden, stammen von Arbeitern, College-Studenten und anderen Frauen, die oft ihren Selfies oder Social-Media-Konten auf Websites wie TikTok und Instagram entnommen wurden.

Die Geschichte geht unter der Werbung weiter

Danielle Citron, eine Rechtsprofessorin an der Boston University, die die Online-Erosion der „intimen Privatsphäre“ erforscht, sagte, sie habe Dutzende von Frauen über die Erfahrung befragt, echte oder künstliche Nacktbilder online geteilt zu haben. Viele sagten, sie hätten tiefe Angst darüber, wie ihre Bilder von Online-Fremden gesehen und gespeichert wurden – und möglicherweise von ihren Kollegen und Klassenkameraden.

Werbung

„Du hast meine Identität genommen und sie in Pornos verwandelt. . . Das fühlt sich so viszeral, schädlich, falsch an“, sagte Citron. „Ihre Leiche wird ohne Ihre Erlaubnis genommen und ausgezogen, und es gibt dokumentarische Beweise dafür. . . . Intellektuell [du] weißt, dass es nicht passiert ist. Aber wenn [Sie] es sehen, fühlt es sich an, als ob es so wäre, und Sie wissen, dass andere es nicht immer wissen werden.“ Es ist eine Fälschung.

„Die Verletzlichkeit, die Ihr Gefühl für Ihre Sicherheit in der Welt erzeugt: Wenn Sie das einmal von jemandem gerissen haben, ist es sehr schwer, es zurückzunehmen“, fügte sie hinzu.

Die Geschichte geht unter der Werbung weiter

Der Bot gibt Benutzern Ratschläge zum Einreichen von Anfragen und empfiehlt, die Originalfotos auf die Brüste der Frauen zu zentrieren und sie in Unterwäsche oder einem Badeanzug zu zeigen, um die besten Ergebnisse zu erzielen. Aber viele der Bilder zeigen Frauen in unauffälliger Schulkleidung oder Alltagskleidung wie T-Shirt und Jeans. Mindestens eine Frau war in einem Hochzeitskleid abgebildet.

Werbung

Eine junge Frau hatte mehrere Fotos von ihr an den Dienst geschickt, von denen einige ein falsches Bikinioberteil enthielten, das grob über ihre normale Kleidung geschoben wurde – wahrscheinlich ein Versuch, die Leistung des Bots zu verbessern.

Der automatisierte Dienst funktioniert jedoch nur bei Frauen: Senden Sie ein Bild eines Mannes – oder eines unbelebten Objekts – und es wird so umgewandelt, dass es Brüste und weibliche Genitalien enthält. (In einem eingereichten Bild des Gesichts einer Katze wurden ihre Augen durch Brustwarzen ersetzt.)

Die Geschichte geht unter der Werbung weiter

Der Administrator des Bots, der auf Russisch sprach, teilte The Post am Montag in einem privaten Chat mit, dass er keine Verantwortung dafür übernehme, wie die Anforderer die Software nutzten, die ihrer Meinung nach ohnehin frei verfügbar sei. „Wenn jemand einen anderen vergiften will, wird er dies ohne uns tun, und er ist für seine Handlungen verantwortlich“, schrieb der Administrator.

Werbung

Die Sensity-Forscher zählten mehr als 104.000 Bilder von Frauen, die nackt erscheinen und in öffentlichen Kanälen geteilt wurden. Eine Website für den Dienst deutet darauf hin, dass die Zahl mit 687.322 „Mädchen nackt“ und 83.364 „Männern genossen“ weitaus höher ist. Aber der Administrator sagte, dass die Zahl zufällig war und nur für Werbung verwendet wurde, da sie keine Statistiken über verarbeitete Fotos führen.

Die Regeln des Bots besagen, dass es nicht erlaubt ist, Akte von minderjährigen Mädchen zu machen. Aber die öffentlich sichtbaren Sammlungen des Dienstes zeigen Mädchen im Teenageralter, darunter eine beliebte TikTok-Persönlichkeit, die 16 Jahre alt ist.

Die Geschichte geht unter der Werbung weiter

Der Administrator sagte, das System sei lediglich darauf ausgelegt, die Fantasien der Benutzer zu erfüllen, und jeder, der die Bilder sehen würde, würde erkennen, dass es sich um Fälschungen handelte.

'Sie übertreiben die Realität stark', sagte der Administrator. „Jedes Foto zeigt beim Heranzoomen viele Pixel. Alles, was Sie tun können, ist, Fantasie Wirklichkeit werden zu lassen, zu visualisieren und zu verstehen, dass sie nicht real ist.“

Werbung

Der Administrator sagte auch, der Dienst habe „während der gesamten Zeit unserer Arbeit keine einzige Beschwerde von einem Mädchen erhalten“ und versucht, die Schuld auf die Opfer der Fälschungen für die Veröffentlichung ihrer Bilder im Internet abzuwälzen.

„Um mit dem neuronalen Netz zu arbeiten, braucht man ein Foto im Badeanzug oder mit einem Minimum an Kleidung. Ein Mädchen, das ein Foto in einem Badeanzug für alle sichtbar ins Internet stellt – zu welchem ​​Zweck macht (sie) das?“ schrieb der Administrator. „90% dieser Mädchen posten solche Fotos, um Aufmerksamkeit zu erregen und sich auf Sexualität zu konzentrieren.“

Auf Fragen eines Post-Reporters sagte der Administrator jedoch, dass er die Chat- und Galeriefunktionen des Bots aufgrund „vieler Beschwerden über den Inhalt“ deaktiviert habe. Der Dienst zum Erstellen neuer Bilder und zuvor generierter Bilder blieb online.

Vertreter von Telegram, das Ende-zu-Ende-Verschlüsselung und private Chat-Funktionen bietet, reagierten am Montag nicht auf Anfragen nach Kommentaren.

Wie der Gründer der Messaging-App Telegram dem Kreml die Stirn bot – und gewann

Britt Paris, Assistenzprofessorin an der Rutgers University, die Deepfakes erforscht hat, sagte, Manipulatoren hätten ihre Arbeit oft als unbeschwertes Experimentieren mit neuen Technologien bezeichnet. Aber diese Verteidigung, sagte sie, ignoriert praktischerweise, wie frauenfeindlich und verheerend die Bilder sein können.

„Diese Amateur-Communitys im Internet sprechen immer mit den Worten: ‚Wir sind nur . . . zum Spaß mit Bildern von nackten Küken herumzuspielen“, sagte Paris. „Aber das überdeckt dieses ganze Problem, dass es für die Menschen, die davon betroffen sind, ihr Leben auf viele wirklich schädliche Weise stören kann.“

Der Bot wurde auf einer Open-Source-Software zur „Bild-zu-Bild-Übersetzung“ aufgebaut, die als . bekannt ist pix2pix , erstmals 2018 von KI-Forschern der University of California in Berkeley enthüllt. Durch die Zuführung einer großen Menge echter Bilder in das System kann es visuelle Muster erkennen und wiederum eigene Fälschungen erstellen, die Landschaftsfotos von Tag zu Nacht oder von Schwarzweiß in Vollfarbe verwandeln.

Die Software basiert auf einem KI-Durchbruch, der als Generative Adversarial Networks oder GANs bekannt ist und in den letzten Jahren aufgrund seiner Fähigkeit, Datenberge zu verarbeiten und lebensechte Videos, Bilder und Textpassagen zu generieren, an Popularität gewonnen hat.

Dating-Apps brauchen Frauen. Werbetreibende brauchen Vielfalt. KI-Unternehmen bieten eine Lösung: Fake People

Die Forscher hinter pix2pix feierten die potenziellen Vorteile für Künstler und Bildgestalter. Aber letztes Jahr trainierte ein anonymer Programmierer die zugrunde liegende Software an Tausenden von Fotos von nackten Frauen und brachte dem System effektiv bei, Frauen von bekleidet in nackt zu verwandeln.

Nach dem Tech-Blog Motherboard schrieb Im letzten Jahr über die App namens DeepNude reagierte der Entwickler auf die Online-Gegenreaktion, indem er die kostenlos herunterladbare App offline nahm. Sprichwort , 'Die Wahrscheinlichkeit, dass Leute es missbrauchen, ist zu hoch.'

Der Deep-Learning-Pionier Andrew Ng letztes Jahr namens DeepNude „eine der widerlichsten Anwendungen von KI“ und fügt hinzu: „An die KI-Community: Sie haben Superkräfte, und was Sie bauen, ist wichtig. Bitte nutzen Sie Ihre Kräfte für würdige Projekte, die die Welt voranbringen.“

Aber die Existenz des Chatbots zeigt, dass es praktisch unmöglich sein wird, die Software vollständig auszurotten. Der Quellcode der Original-App wurde gespeichert und online weit verbreitet, auch auf gewinnorientierten Websites, die anbieten, gegen eine geringe Gebühr Bilder zu generieren.

Top-KI-Forscher rennen um die Suche nach „Deepfake“-Videos: „Wir sind unterlegen“

Hany Farid, ein Informatiker an der UC-Berkeley, der sich auf Forensik digitaler Bilder spezialisiert und nicht an der ursprünglichen pix2pix-Forschung beteiligt war, sagte, das Fake-Nude-System zeige auch auf, wie die männliche Homogenität der KI-Forschung oft Frauen mit ihren Problemen konfrontiert habe dunklere Seite.

KI-Forscher, sagte er, haben sich seit langem eine naive techno-utopische Weltsicht zu eigen gemacht, die schwer zu rechtfertigen ist, indem sie unregulierte Werkzeuge offen veröffentlichen, ohne zu überlegen, wie sie in der realen Welt missbraucht werden könnten.

„Es ist nur ein weiterer Weg, den die Leute gefunden haben, um Technologie gegen Frauen einzusetzen. Sobald dieses Zeug online ist, war es das. Jeder potenzielle Freund oder jede potenzielle Freundin, Ihr Arbeitgeber, Ihre Familie kann es am Ende sehen “, sagte Farid. „Es ist schrecklich, und die Frauen tragen die Hauptlast.

„Wäre ein nicht von Männern dominiertes Labor so unbekümmert und so sorglos mit den Risiken umgegangen?“ er fügte hinzu. „Wären [KI-Forscher] so unbekümmert, wenn ihnen so etwas Schlimmes widerfahren würde, im Gegensatz zu einer Frau auf der Straße?“

Dieses Problem ist für viele Frauen auf der ganzen Welt bereits Realität. Eine Frau, die von dem Bot ins Visier genommen wurde, eine Kunststudentin in Russland, die anonym bleiben wollte, weil sie sich nicht auf diese „dummen Leute“ einlassen wollte, ließ ein Foto von sich in einem Tanktop von ihrem Instagram-Account nehmen und in ein gefälschte nackt.

In einem Interview verglich sie die Fälschung mit jemandem, der ihren Namen verschmiert, sagte aber, sie sei dankbar, dass genug Leute sie kennen, um zu erkennen, dass es wahrscheinlich nicht echt ist.

'Die Betrüger, die diese Art von Dreck machen, werden keinen Erfolg haben', sagte sie. 'Ich glaube an Karma, und was für sie da ist, wird nicht sauberer sein als ihre eigenen Handlungen.'

Isabelle Khurshudyan und Will Englund haben zu diesem Bericht beigetragen.

Kommentar Kommentare GiftOutline Geschenkartikel Loading...