Jeder mit einem iPhone kann jetzt Deepfakes machen. Wir sind nicht bereit für das, was als nächstes passiert.

Früher brauchte es Wochen intensiver Computeranalyse, um einen Deepfake zu erstellen, aber jetzt mit Smartphone-Apps können Online-Belästigung und Desinformation viel schlimmer werden. (Jonathan Baran/Washington Post)

Ich habe George Washington dazu gebracht, Disco zu singen, und Marilyn Monroe bläst mir einen Kuss. Mit nur einem Foto und einer iPhone-App kann ich ein Video von jedem Gesicht erstellen, das sagt oder singt, was immer ich will.

Und jetzt kannst du das auch. Die Technologie zum Erstellen von „Deepfakes“ – Videos von Menschen, die Dinge tun, die nie wirklich passiert sind – ist auf Smartphones angekommen. Es ist einfach, macht Spaß … und ist auch beunruhigend.

Helpdesk: Technologieabdeckung, die Technik für Sie arbeiten lässtPfeilRechts

Die letzten Monate haben Fortschritte in dieser umstrittenen Technologie gebracht, von denen ich wusste, dass sie kommen würden, aber ich bin immer noch schockiert. Vor einigen Jahren erforderten Deepfake-Videos – benannt nach der künstlichen Intelligenz des „Deep Learning“, mit der Gesichter generiert werden – ein Hollywood-Studio oder zumindest einen verrückten, leistungsstarken Computer. Dann kamen um 2020 herum Apps, wie eine namens Genesen , mit dem Sie Ihr eigenes Gesicht auf einen Clip einer Berühmtheit abbilden können.

Die Geschichte geht unter der Werbung weiter

Jetzt mit einem einzigen Foto und null technischem Know-how, einer iPhone-App namens Avatarisieren ermöglicht es Ihnen, das Gesicht einer anderen Person wie eine Marionette zu kontrollieren. Mit der Selfie-Kamera Ihres Telefons passiert alles, was Sie mit Ihrem eigenen Gesicht tun, auf ihrem. Avatarify macht Videos nicht so anspruchsvoll wie Profi-Fälschungen von Tom Cruise die über das soziale Netzwerk TikTok geflogen sind – aber es wurde allein seit Februar mehr als 6 Millionen Mal heruntergeladen. (Überzeugen Sie sich selbst in dem Video, das ich auf meinem Handy gemacht habe, um diese Kolumne zu begleiten.)

Helpdesk: Stellen Sie unserem technischen Kolumnisten eine Frage



Eine weitere App für iPhone und Android-Geräte namens Wombo verwandelt ein direktes Foto in ein lustiges lippensynchrones Musikvideo. Allein in den ersten zwei Wochen wurden 100 Millionen Clips generiert.

Werbung

Und Mein Erbe , eine Genealogie-Website, ermöglicht es jedem, Deepfake-Technologie zu verwenden, um alte Standfotos zum Leben zu erwecken. Laden Sie eine Aufnahme eines lange verlorenen Verwandten oder Freundes hoch, und es entsteht ein bemerkenswert überzeugendes kurzes Video, in dem sie sich umschauen und lächeln. Sogar die kleinen Fältchen um die Augen sehen echt aus. Sie nennen es „Deep Nostalgia“ und haben in den letzten vier Wochen mehr als 65 Millionen Fotos von Menschen reanimiert.

Die Geschichte geht unter der Werbung weiter

Diese Deepfakes täuschen vielleicht nicht jeden, aber es ist immer noch ein kultureller Wendepunkt, für den wir noch nicht bereit sind. Vergessen Sie Gesetze, die verhindern, dass Fälschungen Amok laufen, wir haben kaum soziale Normen für dieses Zeug.

Alle drei der neuesten kostenlosen Dienste sagen, dass sie hauptsächlich für positive Zwecke verwendet werden: Satire, Unterhaltung und historische Nachbildungen. Das Problem ist, dass wir bereits wissen, dass es auch viele schlechte Anwendungen für Deepfakes gibt.

Werbung

„Es ist alles sehr süß, wenn wir das mit Opas Bildern machen“, sagt Anjana Susarla, die verantwortliche KI-Professorin der Michigan State University. „Aber man kann das Bild von jedem aus den sozialen Medien nehmen und manipulierte Bilder davon machen. Darum geht es.“

Die Geschichte geht unter der Werbung weiter

Also sprach ich mit den Leuten, die Deepfake-Apps machen, und den Ethikexperten, die ihren Aufstieg verfolgen, um zu sehen, ob wir einige Regeln für den Weg finden können.

„Sie müssen sicherstellen, dass das Publikum weiß, dass es sich um synthetische Medien handelt“, sagt Gil Perry, CEO von TAT , das Technologieunternehmen, das die Deepfakes von MyHeritage antreibt. „Wir müssen die Richtlinien, die Rahmenbedingungen und die Richtlinien festlegen, damit die Welt weiß, was gut und was schlecht ist.“

Die Technologie zum digitalen Bearbeiten von Standbildern – Adobes Photoshop-Bearbeitungssoftware – gibt es seit Jahrzehnten. Aber Deepfake-Videos werfen neue Probleme auf, wie zum Beispiel Waffen, insbesondere gegen Frauen, um erniedrigende, nicht einvernehmliche gefälschte Pornografie zu schaffen.

So erkennen Sie ein gefälschtes Video

Anfang März wurde eine Frau in Bucks County, Pennsylvania, festgenommen, weil sie den Cheerleading-Trainern ihrer Tochter gefälschte Fotos und Videos ihrer Rivalen geschickt hatte, um zu versuchen, sie aus dem Kader zu werfen. Die Polizei sagt, sie habe Deepfake-Technologie verwendet, um Fotos von drei Mädchen des Victory Vipers-Trupps zu manipulieren, um sie so aussehen zu lassen, als würden sie trinken, rauchen und sogar nackt.

Die Werbegeschichte wird unter der Werbung fortgesetzt

„Der Zuschauer kann Schaden nehmen. Es schadet dem Thema der Sache. Und dann schadet es der Gesellschaft noch viel mehr, wenn das Vertrauen untergraben wird“, sagt Deborah Johnson, emeritierte Professorin für angewandte Ethik an der University of Virginia.

Soziale Netzwerke sagen, dass Deepfakes keine Hauptquelle für problematische Inhalte waren. Wir sollten nicht warten, bis sie eins werden.

Es ist wahrscheinlich nicht realistisch zu glauben, dass Deepfake-Technologie erfolgreich verboten werden könnte. Ein Versuch im Kongress aus dem Jahr 2019, einige Anwendungen der Technologie zu verbieten, scheiterte.

Wir können jedoch auf einigen Leitplanken dieser Verbraucher-Apps und -Dienste bestehen, der App-Stores, die sie bewerben, und der sozialen Netzwerke, die die Videos populär machen. Und wir können darüber reden, wann es in Ordnung ist und nicht, Deepfakes zu machen – auch wenn es darum geht, Opa wiederzubeleben.

@deepfake.0

#fyp #fyp #deepfake

. - Deepfake

Geländer montieren

Der Schöpfer von Avatarify, Ali Aliev, ein ehemaliger Samsung-Ingenieur in Moskau, sagte mir, er sei auch besorgt, dass Deepfakes missbraucht werden könnten. Aber er glaubt nicht, dass seine aktuelle App Probleme machen wird. „Ich denke, die Technologie ist derzeit nicht so gut“, sagte er mir.

Die Werbegeschichte wird unter der Werbung fortgesetzt

Das beruhigt mich nicht. „So gut werden sie werden“, sagt Mutale Nkonde, CEO der gemeinnützigen Organisation KI für das Volk und Fellow an der Stanford University. Die Art und Weise, wie KI-Systeme durch das Training mit neuen Bildern lernen, sagt sie: „Es wird nicht lange dauern, bis diese Deepfakes wirklich, wirklich überzeugend sind.“

Deine Smartphone-Fotos sind total gefälscht – und du liebst es

Avatarifys Nutzungsbedingungen sagen, es kann nicht auf hasserfüllte oder obszöne Weise verwendet werden, aber es gibt keine Systeme, die überprüft werden müssen. Darüber hinaus schränkt die App selbst nicht ein, was Sie sagen oder tun können. „Wir haben es nicht eingeschränkt, weil wir nach Anwendungsfällen suchen – und sie dienen hauptsächlich dem Spaß“, sagt Aliev. 'Wenn wir zu präventiv vorgehen, könnten wir etwas verpassen.'

Hany Farid, ein Informatikprofessor an der University of California in Berkeley, sagt, er habe schon von Unternehmen wie Facebook gehört, dass sich Dinge schnell bewegen und kaputt machen. „Wenn Ihre Technologie Schaden anrichtet – und es ist vernünftig, diesen Schaden vorherzusehen – müssen Sie meiner Meinung nach haftbar gemacht werden“, sagt er.

Die Werbegeschichte wird unter der Werbung fortgesetzt

Welche Leitplanken können Schaden mindern? Ben-Zion Benkhin, CEO von Wombo, sagt, dass Entwickler von Deepfake-Apps „sehr vorsichtig“ sein sollten, wenn es darum geht, den Leuten die Macht zu geben, zu kontrollieren, was aus den Mündern anderer Leute kommt. Seine App beschränkt sich auf Deepfake-Animationen aus einer kuratierten Sammlung von Musikvideos mit Kopf- und Lippenbewegungen, die von Schauspielern aufgenommen wurden. „Man kann nicht etwas auswählen, das superanstößig ist oder falsch ausgelegt werden könnte“, sagt Benkhin.

MyHeritage lässt Sie überhaupt keine Lippenbewegungen oder Stimmen zu seinen Videos hinzufügen – obwohl es seine eigenen Regeln gebrochen hat, indem es seine Technologie verwendet hat, um eine Werbung zu produzieren mit einem gefälschten Abraham Lincoln .

Es gibt auch Bedenken hinsichtlich des Datenschutzes beim Teilen von Gesichtern mit einer App, eine Lektion, die wir aus der umstrittenen FaceApp von 2019 gelernt haben, einem russischen Dienst, der Zugriff auf Ihre Fotos benötigte, um mit KI Gesichter alt aussehen zu lassen. Avatarify (auch russisch) sagt, dass es Ihre Fotos nie empfängt, weil es vollständig über das Telefon funktioniert – aber Wombo und MyHeritage nehmen Ihre Fotos auf, um sie in der Cloud zu verarbeiten.

Die Werbegeschichte wird unter der Werbung fortgesetzt

App-Stores, die diese Technologie vertreiben, könnten noch viel mehr tun, um Standards zu setzen. Apfel Avatarify aus seinem China App Store entfernt , sagte, es verstoße gegen nicht näher bezeichnetes chinesisches Gesetz. Aber die App ist in den USA und anderswo erhältlich – und Apple sagt, dass es keine spezifischen Regeln für Deepfake-Apps gibt, abgesehen von allgemeinen Verboten für diffamierende, diskriminierende oder gemeine Inhalte.

Auch Labels oder Wasserzeichen, die beim Betrachten eines Deepfakes deutlich machen, können helfen. Alle drei dieser Dienste enthalten sichtbare Wasserzeichen, obwohl Avatarify sie mit einem Premium-Abonnement von 2,50 USD pro Woche entfernt.

Noch besser wären versteckte Wasserzeichen in Videodateien, die möglicherweise schwieriger zu entfernen sind und Fälschungen identifizieren könnten. Alle drei YouTuber sagen, dass sie das für eine gute Idee halten – aber jemanden brauchen, der die Standards entwickelt.

Die Werbegeschichte wird unter der Werbung fortgesetzt

Auch soziale Netzwerke werden eine Schlüsselrolle spielen, um sicherzustellen, dass Deepfakes nicht für Krankheiten verwendet werden. Ihre Richtlinien behandeln Deepfakes im Allgemeinen wie andere Inhalte, die falsch informieren oder dazu führen könnten, dass Menschen verletzt werden: Facebook und Instagram Politik besteht darin, „manipulierte Medien“ zu entfernen, obwohl es eine Ausnahme für Parodien gibt. Die Richtlinie von TikTok besteht darin, „digitale Fälschungen“ zu entfernen, die das Thema des Videos oder die Gesellschaft irreführen und schädigen, wie z. B. ungenaue Gesundheitsinformationen. Die Richtlinie zu „betrügerischen Praktiken“ von YouTube verbietet technisch manipulierte Inhalte, die irreführend sind und ein ernsthaftes Risiko darstellen können.

Aber es ist nicht klar, wie gut die sozialen Netzwerke ihre Politik durchsetzen können, wenn das Volumen der Deepfakes in die Höhe schnellen kann. Was ist, wenn, sagen wir, ein Schüler einen gemeinen Witz über seinen Mathelehrer macht – und der Schulleiter dann nicht sofort versteht, dass es sich um eine Fälschung handelt? Alle Unternehmen sagen, dass sie ihre Ansätze weiter evaluieren werden.

Eine Idee: Soziale Netzwerke könnten Leitplanken stärken, indem sie die automatische Kennzeichnung von Deepfakes – eine Verwendung für diese versteckten Wasserzeichen – zur Praxis machen, auch wenn es nicht sofort offensichtlich ist, dass sie Schaden anrichten. Facebook und Google haben in Technologie investiert, um sie zu identifizieren.

Werbung

„Hier müssen die Unternehmen, unsere Regierung und unsere Aufsichtsbehörden belastet werden“, sagt Farid.

KI-generierte Videos, die das Gesicht einer Person auf dem Körper einer anderen zeigen, werden als „Deepfakes“ bezeichnet. Sie werden immer einfacher zu machen und gegen Frauen zu bewaffnen. (Drew Harwell, Jhaan Elker/Washington Post)

Neue Normen

Welche Schritte die Industrie und die Regierung auch unternehmen, Deepfakes sind auch der Ort, an dem persönliche Technologie auf persönliche Ethik trifft.

Sie sollten nicht zweimal darüber nachdenken, ein Foto von jemand anderem zu machen oder zu posten. Aber ein Deepfake daraus zu machen ist anders. Du machst sie zu einer Marionette.

„Deepfakes spielen mit Identität und Entscheidungsfreiheit, weil man jemand anderen übernehmen kann – man kann sie dazu bringen, etwas zu tun, was sie noch nie zuvor getan haben“, sagt Benkhin von Wombo.

Nkonde, der zwei Teenager hat, sagt, dass Familien über Normen in dieser Art von Medien sprechen müssen. „Ich denke, unsere Norm sollte sein, die Leute zu fragen, ob Sie ihre Erlaubnis haben“, sagt sie.

Aber das ist vielleicht leichter gesagt als getan. Das Erstellen eines Videos ist ein Recht auf freie Meinungsäußerung. Und eine Erlaubnis zu bekommen ist nicht immer praktisch: Eine der wichtigsten Anwendungen der neuesten Apps ist es, einen Freund zu überraschen.

Die Erlaubnis, einen Deepfake zu erstellen, ist auch nicht ganz der Punkt. Am wichtigsten ist, wie sie geteilt werden.

„Wenn jemand aus meiner Familie mein Kindheitsfoto machen und dieses Video machen möchte, dann würde ich mich im Rahmen einer Familienfeier damit wohlfühlen“, sagt Susarla. 'Aber wenn diese Person es außerhalb eines unmittelbaren Familienkreises zeigt, wäre es ein sehr unangenehmes Angebot.'

Das Internet ist großartig darin, Dinge aus dem Kontext zu reißen. Sobald ein Video online ist, können Sie schnell die Kontrolle darüber verlieren, wie es interpretiert oder missbraucht werden könnte.

Dann gibt es eine existenziellere Frage: Wie werden uns Deepfakes verändern?

Ich entdeckte Deepfake-Apps, um mit meinem Neffen zu spielen und unsere Zoom-Chats zu beleben, indem ich ihn so aussehen ließ, als würde er alberne Dinge tun.

Aber dann begann ich mich zu fragen: Was bringe ich ihm bei? Vielleicht ist es eine nützliche Lektion fürs Leben zu wissen, dass sogar Videos manipuliert werden können – aber er muss auch lernen, herauszufinden, was ersollenVertrauen.

Aliev von Avatarify sagt, je früher jeder erfährt, dass Videos gefälscht werden können, desto besser geht es uns allen. „Ich denke, der richtige Ansatz besteht darin, diese Technologie zu einer Ware wie Photoshop zu machen“, sagte er.

Ethiker sind sich da nicht so sicher.

„Was mich wirklich beunruhigt, ist das, was Sie in den letzten Jahren erlebt haben, wo jede Tatsache, die für einen Einzelnen, einen CEO, einen Politiker unbequem ist, nur als ‚Fake‘ bezeichnet werden muss“, sagt Farid.

Und auf die Gefahr hin, selbstverständlich zu klingen: Wir wollen die Realität nicht aus den Augen verlieren.

Einige Leute haben in den sozialen Medien geteilt, dass die Wiederbelebung der Toten mit den Videos von MyHeritage sie gemacht hat vor Freude weinen . Dafür bin ich sympathisch. D-ID sagt, dass in seiner eigenen Analyse nur 5 Prozent der Tweets über den Dienst negativ waren.

Aber als ich es mit dem Foto einer Freundin versucht habe, die vor einigen Jahren gestorben ist, fühlte ich mich überhaupt nicht gut. Ich wusste, dass sich mein Freund nicht so bewegte, mit der begrenzten Reichweite dieser computergenerierten Manierismen.

„Will ich wirklich, dass diese Leute und diese Technologie meine Erinnerungen durcheinander bringen?“ sagt Johnson, der U-Va. Ethiker. 'Wenn ich Geister in meinem Leben haben will, will ich echte.'

Deepfakes sind auch eine Form der Täuschung, die wir an uns selbst anwenden.

Kommentar Kommentare GiftOutline Geschenkartikel Loading...