Top-KI-Forscher rennen um die Suche nach „Deepfake“-Videos: „Wir sind unterlegen“

„Deepfakes“ haben die Vorstellung verändert, dass Sehen Glauben ist – und könnten einen großen Einfluss darauf haben, wie sich zukünftige politische Kampagnen entwickeln. (Die Washington Post)

Spitzenforscher der künstlichen Intelligenz im ganzen Land versuchen, eine außergewöhnliche politische Waffe zu entschärfen: computergenerierte gefälschte Videos, die während des Präsidentschaftswahlkampfs 2020 Kandidaten untergraben und Wähler in die Irre führen könnten.

WpHolen Sie sich die volle Erfahrung.Wählen Sie Ihren PlanPfeilRechts

Und sie haben eine Botschaft: Wir sind nicht bereit.

Die Forscher haben automatische Systeme entwickelt, die Videos auf verräterische Anzeichen einer Fälschung analysieren können, indem sie Licht, Schatten, Blinkmuster bewerten – und in einer möglicherweise bahnbrechenden Methode sogar die realen Gesichtsbewegungen eines Kandidaten – wie den Winkel, den sie neigen ihren Kopf, wenn sie lächeln – sich aufeinander beziehen.

Aber trotz all dieser Fortschritte sagen die Forscher, dass sie nach wie vor von einer Technologie überwältigt sind, von der sie befürchten, dass sie eine neue Welle von Desinformationskampagnen ankündigen könnte, ähnlich wie Fake News und betrügerische Facebook-Gruppen eingesetzt wurden, um die öffentliche Meinung während der Wahlen 2016 zu beeinflussen .

Die Werbegeschichte wird unter der Werbung fortgesetzt

Eine leistungsstarke neue KI-Software hat die Erstellung überzeugender „Deepfake“-Videos effektiv demokratisiert und es einfacher denn je gemacht, jemanden zu erfinden, der scheinbar etwas sagt oder tut, was er nicht wirklich getan hat, aus harmlose Satiren und Filmtweaks zu gezielter Belästigung und Deepfake-Pornos.

Und Forscher befürchten, dass es nur eine Frage der Zeit ist, bis die Videos für maximalen Schaden eingesetzt werden – um Verwirrung zu säen, Zweifel zu schüren oder einen Gegner zu untergraben, möglicherweise am Vorabend einer Abstimmung im Weißen Haus.

„Wir sind unterlegen“, sagte Hany Farid, Professor für Informatik und Experte für digitale Forensik an der University of California in Berkeley. „Die Zahl der Personen, die auf der Videosyntheseseite arbeiten, im Gegensatz zur Detektorseite, beträgt 100 zu 1.

Facebook würde ein verändertes Video von Nancy Pelosi nicht löschen. Was ist mit einem von Mark Zuckerberg?

Diese KI-generierten Videos müssen in den USA noch ihren eigenen politischen Skandal auslösen. Aber selbst einfache Anpassungen an bestehenden Videos können für Aufruhr sorgen, wie dies bei der kürzlich erfolgten viralen Verbreitung eines Videos der Sprecherin des Repräsentantenhauses Nancy Pelosi (D-Calif.) geschah, das so verzerrt wurde, dass ihre Rede verkümmert und undeutlich wurde. Dieses Video wurde mehr als 3 Millionen Mal angesehen.

Die Werbegeschichte wird unter der Werbung fortgesetzt

Deepfakes sind bereits anderswo aufgetaucht: In Zentralafrika im vergangenen Jahr a Video von Gabuns lange nicht gesehenem Präsidenten Ali Bongo, der gesundheitlich angeschlagen oder bereits tot war, wurde von seinen politischen Gegnern als Deepfake verschrien und eine Woche später als Auslöser für einen erfolglosen Putsch des gabunischen Militärs genannt.

Und in Malaysia ein viraler Clip von einem Mann scheinbares Geständnis Sex mit einem lokalen Kabinettsminister zu haben, wird als potenzieller Deepfake in Frage gestellt. Er „sieht nicht so aus. . . . Sein Körper ist nicht so gebaut wie im Video', sagte ein Kommunalpolitiker die malaiische Mail-Zeitung in Kuala Lumpur.

Die Bedrohung durch Deepfakes, benannt nach den „Deep Learning“-KI-Techniken, mit denen sie erstellt wurden, ist auf dem Capitol Hill zu einer persönlichen Bedrohung geworden, wo der Gesetzgeber glaubt, dass die Videos die nationale Sicherheit, den Abstimmungsprozess und möglicherweise ihren Ruf bedrohen könnten. Der Geheimdienstausschuss des Repräsentantenhauses wird Donnerstag eine Anhörung durchführen in dem von KI-Experten erwartet wird, zu diskutieren, wie Deepfakes der Entdeckung entgehen und eine „andauernde psychologische Wirkung“ hinterlassen könnten.

Der Vorsitzende des Ausschusses, Abgeordneter Adam B. Schiff (D-Calif.), sagte am Donnerstag: „Ich glaube, wir sind überhaupt nicht gut vorbereitet. Und ich glaube nicht, dass die Öffentlichkeit weiß, was kommt.“

Rachel Thomas, die Mitbegründerin von Fast.ai, einem Labor für maschinelles Lernen in San Francisco, sagt, dass eine Desinformationskampagne mit Deepfake-Videos aufgrund der Belohnungsstruktur des modernen Webs, in der schockierendes Material ein größeres Publikum anregt, wahrscheinlich Feuer fangen würde. und kann sich weiter und schneller verbreiten als die Wahrheit.

Die Werbegeschichte wird unter der Werbung fortgesetzt

'Fälschungen müssen oft, besonders jetzt, nicht so überzeugend sein, um noch Wirkung zu haben', sagte Thomas. „Wir sind diese sozialen Wesen, die am Ende mit der Menge mitgehen, um zu sehen, was die anderen Leute sehen. Es wäre nicht so schwer für einen schlechten Schauspieler, einen solchen Einfluss auf die öffentliche Konversation zu haben.“

Kein Gesetz regelt Deepfakes, obwohl einige Rechts- und Technikexperten empfohlen haben, die geltenden Gesetze zu Verleumdung, Verleumdung, Identitätsbetrug oder Nachahmung eines Regierungsbeamten anzupassen. Aber es gibt viele Bedenken hinsichtlich einer Überregulierung: Die Trennlinie zwischen einer durch den ersten Verfassungszusatz geschützten Parodie und tiefer gefälschter politischer Propaganda ist möglicherweise nicht immer klar.

Und einige befürchten, dass der potenzielle Hype oder die Hysterie von gefälschten Videos sogar die Akzeptanz von Videobeweisen durch die Menschen untergraben könnte. Der Fehlinformationsforscher Aviv Ovadya nennt dieses Problem „Realitäts-Apathie“: „Es ist zu viel Aufwand, herauszufinden, was echt ist und was nicht, also bist du eher bereit, einfach mit deinen bisherigen Zugehörigkeiten zu gehen.“

Fake-Porno-Videos werden als Waffe eingesetzt, um Frauen zu belästigen und zu demütigen: „Jeder ist ein potenzielles Ziel“

Es könnte bereits Auswirkungen haben. In einem Pew Research-Studie Diesen Monat veröffentlicht, sagten etwa zwei Drittel der befragten Amerikaner, dass veränderte Videos und Bilder zu einem großen Problem für das Verständnis der grundlegenden Fakten der aktuellen Ereignisse geworden seien. Mehr als ein Drittel gab an, „erfundene Nachrichten“ hätten sie dazu veranlasst, die Menge der Nachrichten, die sie insgesamt erhalten, zu reduzieren.

Die Werbegeschichte wird unter der Werbung fortgesetzt

Es gibt auch Befürchtungen, dass Deepfakes dazu führen könnten, dass Leute legitime Videos leugnen – ein Phänomen, das die Rechtsprofessoren Robert Chesney und Danielle Citron „die Dividende des Lügners“ nennen. Präsident Trump zum Beispiel hat den Leuten erzählt, dass das Video „Access Hollywood“, in dem er damit prahlte, Frauen angegriffen zu haben, manipuliert wurde. (Nachdem das echte Audio erstmals im Oktober 2016 von der Washington Post enthüllt wurde, entschuldigte sich Trump für die Bemerkungen.)

Beamte der Demokratischen und Republikanischen Parteien und der führenden Präsidentschaftskampagnen des Landes sagen, dass sie im Voraus wenig tun können, um sich auf den Schaden vorzubereiten, und zählen auf soziale Netzwerke und Videoseiten, um die schlimmsten Fälschungen zu finden und zu entfernen. Aber die Technologieunternehmen haben unterschiedliche Richtlinien zu Deaktivierungen und die meisten verlangen nicht, dass hochgeladene Videos wahr sein müssen.

„Die Leute können mich kopieren und alles sagen … und es ist eine komplette Erfindung“, sagte der ehemalige Präsident Barack Obama letzten Monat vor einem Publikum in Kanada. „Der Ideenmarkt, der die Grundlage unserer demokratischen Praxis ist, hat Schwierigkeiten, zu funktionieren, wenn wir keine gemeinsame Grundlage dafür haben, was wahr ist und was nicht.“

Die Werbegeschichte wird unter der Werbung fortgesetzt

Die Technologie schreitet rasant voran. KI-Forscher am Skolkovo Institute of Science and Technology in Moskau letzten Monat enthüllte ein „Few-Shot“-KI-System das könnte eine überzeugende Fälschung von jemandem mit nur wenigen Standfotos seines Gesichts erzeugen. Der leitende Forscher, Egor Zakharov, sagte, er könne dies nicht diskutieren, unter Berufung auf die laufenden Peer-Reviews, aber in einer Erklärung sagte das Team, dass der „Nettoeffekt“ der Verbreitung von Video-Spezialeffekttechnologien „positiv war … [und] Wir glauben, dass der Fall der neuronalen Avatar-Technologie nicht anders sein wird.“

Gefälschte Pelosi-Videos, die verlangsamt wurden, um sie betrunken erscheinen zu lassen, verbreiteten sich in den sozialen Medien

Eine weitere Gruppe von KI-Forschern, unter anderem von den Universitäten Stanford und Princeton, debütierte ein separates System das kann bearbeiten, was jemand auf Video zu sagen scheint, indem man einfach etwas Text ändert, wobei die KI die stimmhaften Silben und die Mundbewegung der Person wechselt, um nur einen nahtlos veränderten 'sprechenden Kopf' zu hinterlassen.

Der leitende Forscher, Ohad Fried, sagte, dass die Technologie verwendet werden könnte, um Low-Budget-Filme zu verbessern und Videos für internationale Sprachen und ein internationales Publikum zu lokalisieren. Aber er sagte auch, es könnte missbraucht werden, um Videos zu fälschen oder „prominente Personen zu verleumden“. Videos, die mit dem Tool erstellt wurden, sollten als synthetisch präsentiert werden. Er sagte jedoch, dass Regulierungsbehörden, Technologieunternehmen und Journalisten eine führende Rolle bei der Erforschung von Fälschungen spielen sollten.

Die Werbegeschichte wird unter der Werbung fortgesetzt

„Im Allgemeinen müssen die Leute verstehen, dass Videos möglicherweise keine genaue Darstellung dessen sind, was passiert ist“, sagte er.

Deepfake-Videos sind nur ein Teil davon, wie KI die Desinformation revolutioniert. Neue natürlichsprachliche KI-Systeme wie GPT-2 , vom Forschungslabor OpenAI, kann sich von geschriebenem Text ernähren und viele weitere Absätze in einem ähnlichen Ton, Thema und Stil ausspucken – ein Segen vielleicht für Spam-Chatbots und „Fake News“-Ersteller, auch wenn die zugrunde liegenden Ideen manchmal in Richtung Kauderwelsch.

Die Technik hat schon benutzt den Sprechstil der politischen Führer automatisch nachzuplappern, nachdem sie aus stundenlangen UN-Reden „gelernt“ haben. Um dem entgegenzuwirken, haben Forscher der University of Washington und des Allen Institute for Artificial Intelligence letzten Monat ein Fake-Text-Detektor-System vorgestellt , genannt Grover, das potenziell aufdecken könnte, was es maschinell generierte „neurale Fake News“ nennt.

Die Werbegeschichte wird unter der Werbung fortgesetzt

Überzeugendes Fake-Audio ist ebenfalls in Sicht, einschließlich von Facebook-KI-Forscher , die die Stimme einer Person mit computergenerierter Sprache nachgebildet haben, die täuschend echt klingt. Das System, MelNet, lernte seine Identitätswechsel, indem es Hunderte von Stunden TED-Talks und Hörbücher anhörte; in Proben , kann das System Bill Gates, Jane Goodall und andere dazu bringen, Sätze wie 'Ein Krampf ist beim Schwimmen keine geringe Gefahr' zu sagen.

Pelosi sagt, dass veränderte Videos zeigen, dass Facebook-Führer „willige Ermöglicher“ der russischen Wahleinmischung waren

In KI-Kreisen hat die Identifizierung von gefälschten Medien lange weniger Aufmerksamkeit, Finanzierung und institutionelle Unterstützung erfahren als ihre Erstellung: Warum die Fantasiekreationen anderer Leute erschnüffeln, wenn Sie Ihre eigenen entwerfen können? 'Mit der Erkennung dieser Dinge ist kein Geld zu verdienen', sagte Nasir Memon, Professor für Informatik und Ingenieurwissenschaften an der New York University.

Ein Großteil der Mittel für die Erforschung von Möglichkeiten zur Erkennung von Deepfakes kommt von der Defense Advanced Research Projects Agency, der Hightech-Forschungsabteilung des Pentagon, die 2016 ein Programm „Medienforensik“ ins Leben rief, das mehr als ein Dutzend akademischer und Unternehmensgruppen finanzierte, die hochtechnologische Ebene Forschung. Matt Turek, ein Computer-Vision-Experte, der das DARPA-Programm leitet, bezeichnete die Erkennung synthetischer Medien als eine „Abwehrtechnologie“ nicht nur gegen ausländische Gegner, sondern auch gegen innenpolitische Gegner und Internet-Trolle.

Die Werbegeschichte wird unter der Werbung fortgesetzt

„Nationalstaaten haben die Möglichkeit, Medien im Wesentlichen seit den Anfängen der Medien zu manipulieren“, sagte Turek. Aber ein Fake-Spotting-System, das stark genug ist, würde es so machen, dass Gruppen mit begrenzteren Ressourcen „genug Rechenlast haben, um das Risiko nicht wert zu machen“.

Der Trick zum Aufdecken eines Deepfakes besteht laut Forschern darin, ein Tool zu entwickeln, das in einer sogenannten „vertrauenswürdigen Umgebung“ funktioniert, die Kryptografiekreise nennen, in der es unmöglich sein kann, maßgebliche Details des Schöpfers, der Herkunft und der Verbreitung des Videos zurückzuverfolgen. Und Geschwindigkeit ist entscheidend: Mit jeder Minute, die ein Ermittler damit verbringt, ein Video zu entlarven, kann sich ein Clip so viel weiter im Web verbreiten.

Scarlett Johansson über gefälschte KI-generierte Sexvideos: „Nichts kann jemanden davon abhalten, mein Bild auszuschneiden und einzufügen“

Forensische Forscher haben sich auf eine Reihe subtiler Indikatoren konzentriert, die als Werbegeschenke dienen könnten, wie die Form von Licht und Schatten, die Winkel und die Unschärfe von Gesichtszügen oder die Weichheit und das Gewicht von Kleidung und Haaren. Aber in einigen Fällen kann ein geschulter Videoeditor die Fälschung durchgehen, um mögliche Fehler zu glätten, was die Beurteilung erheblich erschwert.

Mit einer neuen Methode bauten Forscher der Universitäten von Kalifornien in Berkeley und Südkalifornien ein Detektiv-KI-System, das sie stundenlang mit Videos hochrangiger Führungskräfte fütterten und es trainierten, nach hyperpräzisen „Gesichtsaktionseinheiten“ zu suchen – Datenpunkte von ihre Gesichtsbewegungen, Ticks und Gesichtsausdrücke, auch wenn sie ihre Oberlippen heben und wie sich ihre Köpfe drehen, wenn sie die Stirn runzeln.

Um diese „weichen biometrischen“ Modelle zu testen, arbeiteten Farid und sein Team mit einem Team von Digital-Avatar-Designern zusammen, um eigene Deepfakes zu erstellen und die Gesichter von Senator Elizabeth Warren (D-Mass.), Hillary Clinton und Präsident Trump zu vertauschen auf ihre eigenen Imitatoren bei „Saturday Night Live“. Das System hat eine hohe Genauigkeit bei der Beurteilung einer Reihe verschiedener Arten von Fälschungen erzielt: Videos eines satirischen menschlichen Imitators; „Face-Swap“-Fälschungen, beliebt in Social-Media-Apps; „Lippensynchronisation“-Fälschungen, bei denen das echte Gesicht erhalten bleibt, aber der Mund ersetzt wird; und „Puppenmeister“-Fälschungen, bei denen das Gesicht einer Zielperson auf den Körper eines Schauspielers gelegt wird.

Die Forschung mit dem Titel „Protecting World Leaders Against Deep Fakes“ wurde teilweise mit Mitteln von Google, Microsoft und DARPA entwickelt. Es wird neben anderen Techniken nächste Woche in Kalifornien auf der Conference on Computer Vision and Pattern Recognition, einem wegweisenden jährlichen Gipfel, vorgestellt gesponsert von den größten Namen der amerikanischen und chinesischen KI.

Sam Gregory, Programmdirektor bei Zeuge , eine Menschenrechtsgruppe, die Amateurjournalisten auf der ganzen Welt dabei hilft, Missbrauch aufzuzeichnen, sagte, die Social-Media-Plattformen der Welt müssten sich um ein „gemeinsames Immunsystem“ vereinen, das darauf ausgelegt ist, virale Fälschungen zu finden und zu stoppen. Das Scannen der Gesichter von Spitzenpolitikern mit der Methode von Farid, sagte Gregory, würde hochrangigen Führern Schutz bieten, aber nicht lokalen Politikern, Journalisten oder anderen Personen, die anfällig für Angriffe sein könnten.

Farid möchte, dass Medienunternehmen Zugriff auf das Deepfake-Erkennungstool haben, damit sie Nachrichtenvideos bewerten können, wenn sie auftauchen. Eine breitere Verfügbarkeit des Systems birgt jedoch eine eigene Bedrohung, da Deepfake-Ersteller möglicherweise den Code untersuchen und Problemumgehungen finden können. Dieses Katz-und-Maus-Spiel ist für Forensiker eine lang anhaltende Frustration und stellt sicher, dass selbst eine vielversprechende Erkennungsmethode nur von vorübergehendem Nutzen ist.

Siwei Lyu, Direktor eines Computer-Vision-Labors an der State University of New York in Albany, half letztes Jahr bei der Pionierforschung, bei der viele Deepfakes einen verräterischen Hinweis hatten: ein fehlendes Blinzeln. Es war ein Ermittlungssieg – bis Lyu zwei Wochen später eine E-Mail von einem Deepfake-Ersteller erhielt, der sagte, sie hätten das Problem in ihren neuesten Fälschungen gelöst.

Lyu glaubt, dass Medienmanipulation eine breitere psychologische Wirkung haben kann, indem sie das Verständnis der Menschen von Politikern, Ereignissen und Ideen subtil verändert.

„Jeder weiß, dass es ein gefälschtes Video ist. Aber sie sehen es sich an“, sagte Lyu. „Es erzeugt eine Illusion. Es kann viel Schaden anrichten. Es ist sehr schwer zu entfernen. Und es kann von überall her kommen. Mit dem Internet verschwimmen alle Grenzen.“

Fake News werden noch viel gefährlicher

Laut Forschern sind gefälschte High-Definition-Videos oft am einfachsten zu erkennen. Je detaillierter ein Video ist, desto mehr Möglichkeiten hat der Fake, seine Fehler zu enthüllen. Das moderne Web wirkt diesem Vorteil jedoch entgegen, da die meisten Social Media- und Messaging-Sites die Videos in Formate komprimieren, die das Teilen schneller und einfacher machen, und kritische Hinweise entfernen.

Diese Herausforderung erscheint einigen unüberwindbar und hat einige Forscher dazu veranlasst, stattdessen ein Authentifizierungssystem zu verfolgen, das Filmmaterial direkt bei der Aufnahme mit Fingerabdrücken erfasst. Es könnte helfen, Fälschungen leichter zu erkennen, würde aber die Zustimmung der Hersteller von Smartphones, Kameras und Websites erfordern – ein weit entfernter Vorschlag, der Jahre dauern könnte.

„Ich habe 15 Jahre lang an der Erkennung gearbeitet. Es funktioniert nicht“, sagte Memon. „Facebook-Videos? Dinge, die in WhatsApp herumgeworfen werden? . . . Es kann nie funktionieren. Inzwischen ist der Gegner wirklich ein paar Stufen nach oben gegangen.“

Politische Kampagnen, die seit langem Abwehrmaßnahmen gegen verletzende Videofehler vorbereitet haben, sagten, sie seien ratlos, wie sie sich auf die neuen Waffen der Massentäuschung vorbereiten sollten. Mehrere Wahlkampfbeamte sagten, sie hätten ihre Hoffnungen darauf gesetzt, dass die Technologieunternehmen aggressiver gegen die Polizei wegen Fälschungen vorgehen.

Ein Beamter des Demokratischen Nationalkomitees sagte, es habe geholfen, Kampagnen zur Bekämpfung von Desinformation und zur Entfernung von Social-Media-Sites auszubilden. Ein Beamter des Republikanischen Nationalkomitees sagte, es ermutige die Mitarbeiter, bei verdächtigen Inhalten auf der Hut zu bleiben, und dass sein digitales Team mit den Technologiegiganten zusammenarbeite, um schädliche Beiträge und Konten zu melden.

Ein Grund, an der digitalen Zukunft zu verzweifeln: Deepfakes

Aber die Richtlinien der Technologiegiganten stimmen nicht darauf ab, ob Fälschungen gelöscht oder gekennzeichnet, herabgestuft und aufbewahrt werden sollten. YouTube zum Beispiel zog das verzerrte Pelosi-Video schnell heraus und sagte, es verstoße gegen seine Richtlinien für „betrügerische Praktiken“. Aber Facebook hielt es online und sagte in einer Erklärung gegenüber The Post, dass 'wir keine Richtlinie haben, die vorschreibt, dass die Informationen, die Sie auf Facebook posten, wahr sein müssen'.

YouTube sagte, es erkunde und investiere in Möglichkeiten, synthetische Medien anzugehen, und verglich es mit früheren Herausforderungen, wie der Bekämpfung von Spam und der Suche nach urheberrechtsverletzenden Videos, die es mit einer Mischung aus Software und menschlicher Überprüfung bewältigt hat.

Facebook finanziert die Forschung zu manipulierten Medien einiger Universitäten und sagte in einer Erklärung gegenüber The Post: 'Die Bekämpfung von Fehlinformationen ist eines der wichtigsten Dinge, die wir tun können.' Das Unternehmen wurde diese Woche von seiner eigenen Fälschung ins Visier genommen, als ein verändertes Video von CEO Mark Zuckerberg auftauchte, das ihn mit seiner „totalen Kontrolle“ über die Daten der Welt prahlte. (Die Fälschung bleibt online.)

Twitter sagte, es fordert mehr als 8 Millionen Konten pro Woche heraus, die versuchen, Inhalte durch „manipulative Taktiken“ zu verbreiten. Es sei jedoch nicht möglich, jeden Tweet auf Fakten zu überprüfen, sagte das Unternehmen und fügte hinzu, dass es nicht 'denkt, dass wir den Präzedenzfall schaffen sollten, um zu entscheiden, was online wahr und nicht wahr ist'.

The Technology 202: Doctored Pelosi Video ist der führende Tipp in der kommenden Desinformationsschlacht

Das Unternehmen fügte hinzu, dass „die Klärung von Unwahrheiten in Sekundenschnelle geschieht“ auf der Website aufgrund von Echtzeitprüfungen durch andere Benutzer, und dass „in der Regel sachlich ungenaues Material auf Twitter sehr wenig verbreitet wird, bis es widerlegt wird“. Das Unternehmen konnte keine Statistiken vorlegen, um diese Behauptung zu untermauern.

Das vielleicht am weitesten verbreitete Problem für modernes visuelles Geschichtenerzählen sind laut Forschern nicht ausgeklügelte gefälschte Videos, sondern fälschlicherweise echte Videos: Aufnahmen eines echten Protestmarsches oder eines gewalttätigen Gefechts zum Beispiel, die so beschriftet sind, als ob es woanders passiert wäre.

Die Erkennungssysteme haben aufgrund der bevorstehenden Wahlen eine neue Dringlichkeit erlangt, aber es gibt auch ein wachsendes Interesse der amerikanischen Unternehmen, sich vor viralen Betrügereien zu schützen. Shamir Allibhai, der Gründer von Amber, einem kleinen Start-up zur Fälschungserkennung, sagte, seine Firma arbeite jetzt mit einer Testgruppe von Firmenkunden zusammen, die einen Schutz gegen Deepfakes suchen, die zum Beispiel zeigen könnten, dass ein Vorstandsvorsitzender rassistische oder frauenfeindliche Beleidigungen sagt .

In einer Welt, in der Video eine entscheidende Rolle bei der Gestaltung der modernen Geschichte gespielt hat, ist es laut Forschern dennoch wichtig, einen Weg zu finden, die Fälschungen zu erkennen – und einige befürchten, was passieren könnte, wenn die Autorität des Videos verloren geht.

„Als Folge dessen wird selbst der Wahrheit nicht geglaubt“, sagte Memon. „Der Mann vor dem Panzer auf dem Platz des Himmlischen Friedens hat die Welt bewegt. Nixon am Telefon kostete ihn seine Präsidentschaft. Schreckensbilder aus Konzentrationslagern haben uns schließlich zum Handeln bewegt. Wenn die Vorstellung, nicht zu glauben, was Sie sehen, angegriffen wird, ist das ein riesiges Problem. Man muss die Wahrheit wiederherstellen, wenn man wieder sieht.“

Tiefer graben: Künstliche Intelligenz + Fehlinformationen

Möchten Sie mehr darüber erfahren, wie sich Fehlinformationen verbreiten? Sehen Sie sich unsere kuratierte Liste von Geschichten unten an.

Wie wir hierher gekommen sind: Der Kampf gegen KI-generierte Fake-Videos

Während Experten versuchen herauszufinden, wie man „Deepfakes“ stoppen kann, befürchten sie, dass wir möglicherweise nicht auf den Schaden vorbereitet sind.

Wie sich Social-Media-Unternehmen auf 2020 vorbereiten

In Zusammenarbeit mit beiden Parteien gaben uns die ersten Debatten in diesem Jahr eine Vorschau darauf, was getan wird, um das zu vermeiden, was bei den Wahlen 2016 passiert ist.

Machen Sie sich schlau über Messaging-Apps und Fehlinformationen

Globale Probleme mit Fehlinformationen beginnen nicht bei Facebook, sondern bei geschlossenen Messaging-Apps wie WhatsApp, bei denen schlechte Informationen unter Familie und Freunden geteilt werden.

Kommentar Kommentare GiftOutline Geschenkartikel Loading...