Neueste Idee des Gesetzgebers, um Facebook zu reparieren: Regulieren Sie den Algorithmus

Die ehemalige Facebook-Mitarbeiterin Frances Haugen teilte dem Gesetzgeber am 5. Oktober mit, welche Richtlinien das Unternehmen ergreifen könnte, um seine Produkte sicherer zu machen. (Die Washington Post)

Auf Facebook entscheiden Sie, mit wem Sie sich anfreunden, welchen Seiten Sie folgen, welchen Gruppen Sie beitreten. Aber sobald Sie das getan haben, entscheidet Facebook, welche ihrer Beiträge Sie jedes Mal sehen, wenn Sie Ihren Feed öffnen – und welche nicht.

WpHolen Sie sich die volle Erfahrung.Wählen Sie Ihren PlanPfeilRechts

Die Software, die diese Entscheidungen für jeden Benutzer trifft, basierend auf einer geheimen Ranking-Formel, die von Facebook entwickelt wurde und mehr als 10.000 Faktoren umfasst, wird allgemein als „News-Feed-Algorithmus“ oder manchmal einfach als „Algorithmus“ bezeichnet. In einem sozialen Netzwerk mit fast 3 Milliarden Nutzern hat dieser Algorithmus wohl mehr Einfluss darauf, was Menschen online lesen, ansehen und teilen als jede Regierung oder ein Medienmogul.

Es ist die unsichtbare Hand, die dafür sorgt, dass Sie die Hochzeitsfotos Ihres engen Freundes oben in Ihrem Feed sehen, anstatt den Beitrag eines vergessenen Klassenkameraden über das heutige Mittagessen. Aber weil Facebooks Hauptziel darin besteht, Ihre Aufmerksamkeit zu erregen und zu halten, sagen Kritiker, ist es auch anfällig dafür, Sie mit dem Post eines Mitschülers der High School zu füttern, das Leute dämonisiert, mit denen Sie nicht einverstanden sind, anstatt beispielsweise eine ausgewogene Nachrichtengeschichte – oder eine fesselnde Verschwörungstheorie statt trockener, wissenschaftlicher Entlarvung.

Die Werbegeschichte wird unter der Werbung fortgesetzt

Diese Art von hochgradig personalisiertem, aufmerksamkeitsstarkem Algorithmus – und andere, die in Apps wie TikTok, YouTube, Twitter und Instagram im Besitz von Facebook ähnlich sind – ist es, was die Facebook-Whistleblowerin Frances Haugen als den Kern der Bedrohung identifiziert hat, die soziale Medien für die Gesellschaft darstellen.

'Eine der Folgen der heutigen Auswahl von Facebook-Inhalten besteht darin, dass es für Inhalte optimiert wird, die Engagement oder Reaktion hervorrufen', sagte Haugen auf der CBS-Show „60 Minuten“. „Aber ihre eigene Forschung zeigt, dass Inhalte, die hasserfüllt sind, die spalten, die polarisieren – es einfacher ist, Menschen zu Wut zu inspirieren als zu anderen Emotionen.“



Inmitten einer breiteren Gegenreaktion gegen Big Tech haben Haugens Aussagen und Enthüllungen die Debatten darüber, wie man soziale Medien und insbesondere Facebook eindämmen kann, neue Dringlichkeit verliehen. Und während Gesetzgeber und Anwälte nach Lösungen suchen, wächst das Interesse an einem in der Politik relativ neuen Ansatz: Algorithmen selbst zu regulieren oder zumindest Unternehmen für ihre Auswirkungen verantwortlich zu machen. Die große Frage ist, ob dies erreicht werden kann, ohne das zu ruinieren, was die Leute an sozialen Medien immer noch mögen – oder mit dem Ersten Verfassungszusatz in Konflikt zu geraten.

Die Werbegeschichte wird unter der Werbung fortgesetzt

Im vergangenen Jahr wurden im Kongress mindestens fünf Gesetzentwürfe eingebracht oder wieder eingeführt, die sich explizit auf die Softwareprogramme konzentrieren, die entscheiden, was Menschen auf Social-Media-Plattformen sehen. Über die Vereinigten Staaten hinaus schreiten die Bemühungen zur Regulierung solcher Algorithmen in der Europäischen Union, Großbritannien und China voran.

'Es ist ermutigend zu sehen, dass sich der Kongress endlich auf den Kern des Problems konzentriert', sagte der Abgeordnete Tom Malinowski (D-N.J.), der einen Gesetzentwurf zur Regulierung von Algorithmen mitverfasst hat, letzte Woche in einem Telefoninterview. „Der Kern des Problems ist nicht, dass im Internet schlechtes Zeug gepostet wird. Es ist so, dass soziale Netzwerke dazu gedacht sind, die schlechten Dinge zu verbreiten.“

Die Enthüllungen des Facebook-Whistleblowers könnten den „Big Tobacco-Moment“ der Technologie einleiten, sagen die Gesetzgeber

Dies markiert eine Verschiebung gegenüber früheren Kongressanhörungen zu Facebook, die sich tendenziell auf die sogenannte Inhaltsmoderation konzentrierten: Entscheidungen sozialer Netzwerke, bestimmte Arten von Beiträgen zu verbieten oder zuzulassen. Diese Argumente tendierten zu Pattsituationen, da die Gesetzgeber auf der linken Seite wollten, dass die Tech-Giganten aggressiver gegen Hassreden, Verschwörungstheorien und Unwahrheiten vorgehen, während die Rechten den Tech-Giganten die Hände binden wollten, um zu verhindern, was sie für eine Form von . halten Zensur. Beide wurden durch den First Amendment eingeschränkt, der die Macht der Regierung einschränkt, die Redepolitik von Unternehmen zu regulieren.

Die Werbegeschichte wird unter der Werbung fortgesetzt

Einige Gesetzgeber und Anwälte hoffen, dass die Aufmerksamkeit auf das zugrunde liegende Design und die Anreize sozialer Netzwerke einschließlich ihrer Empfehlungssysteme gelenkt wird, um Gemeinsamkeiten zwischen den Parteien zu beleuchten. Diese Ansätze beherzigen die Unterscheidung zwischen der freien Meinungsäußerung, die in der Verfassung verankert ist, und dem, was die Forscherin Renee DiResta genannt hat: freie Reichweite “, was nicht der Fall ist.

Feed-Ranking-Algorithmen haben ihre Vorteile. Im besten Fall zeigen sie den Leuten Beiträge, die sie wahrscheinlich interessant, überraschend oder wertvoll finden und denen sie sonst vielleicht nicht begegnet wären – während sie den Lärm eintöniger Updates oder mühsamer Eigenwerbung herausfiltern. Sie ermöglichen es, dass Posts von Personen ohne große Follower dennoch ein breites Publikum mit wichtigen Botschaften erreichen, ohne durch etablierte Medien-Gatekeeper zu gehen. Einige Forscher sagen, dass sie bis zu einem gewissen Grad maßgeblich an der Förderung sozialer Bewegungen beteiligt waren, vom Arabischen Frühling bis zu Black Lives Matter.

Doch ihre dunklen Seiten haben nach und nach mehr Aufmerksamkeit auf sich gezogen.

Die Werbegeschichte wird unter der Werbung fortgesetzt

Zu den internen Forschungsergebnissen, die Haugen veröffentlichte, gehörten einige, die darauf hindeuteten: Der Algorithmus von Instagram nutzt die Unsicherheiten von Teenager-Mädchen aus um ihnen Beiträge zu zeigen, die sich auf extreme Diäten und sogar auf Selbstverletzung beziehen. (Experten sagen mehr Forschung ist notwendig um vollständig zu verstehen, wie sich Instagram auf die psychische Gesundheit auswirkt.) Eine weitere Reihe von Dokumenten argumentiert, dass Änderungen am Facebook-News-Feed-Algorithmus in den Jahren 2018 und 2019, die als Ermutigung zu „sinnvollen sozialen Interaktionen“ zwischen Benutzern angepriesen wurden, den Nebeneffekt einer systematischen Förderung hatten Beiträge, die Streit und Empörung auslösten .

Das war nicht die Absicht von Facebook, sagte Haugen. Die Absicht, erklärte sie, bestand darin, die Benutzer dazu zu bringen, mehr miteinander zu interagieren, was CEO Mark Zuckerberg als entscheidend ansah, um das soziale Netzwerk relevant zu halten, da jüngere Benutzer zu Rivalen wie Snapchat hingezogen würden. Facebook lieferte eine andere Begründung und sagte, seine Absicht sei es, das Wohlbefinden der Benutzer angesichts der Besorgnis über die Auswirkungen der passiven „Bildschirmzeit“ zu steigern. Beide sind sich einig, dass die Änderung des Algorithmus des Unternehmens die Steigerung von Beiträgen beinhaltete, die Kommentare auslösten, und nicht nur Likes oder Ansichten.

Als die Forscher begannen, die alarmierenden Nebenwirkungen aufzudecken, wurden diese Ergebnisse von Vorgesetzten heruntergespielt und ignoriert, sagte Haugen – vielleicht, behauptet sie, weil das Unternehmen einige seiner Leistungsboni an die Erhöhung der mit der Änderung verbundenen Metriken gebunden hatte. Facebook hat es abgelehnt, sich zu diesem speziellen Vorwurf zu äußern.

Analyse: Das Impfstoff-Fehlinformationsproblem von Facebook und YouTube ist einfacher als es scheint

Eine Möglichkeit, Algorithmen zu regulieren, ohne die Online-Sprache direkt zu regulieren, wäre die Änderung von Abschnitt 230 des Communications Decency Act, der Websites und Apps davor schützt, für das Hosten oder Moderieren von Inhalten, die von Benutzern gepostet werden, verklagt zu werden. In mehreren Gesetzentwürfen wird vorgeschlagen, diesen Schutz für bestimmte Kategorien schädlicher Inhalte, die Plattformen über ihre Algorithmen bewerben, aufzuheben, während er für Inhalte beibehalten wird, die sie lediglich hosten, ohne sie zu verstärken.

Die Werbegeschichte wird unter der Werbung fortgesetzt

Technologieunternehmen zu zwingen, vorsichtiger mit dem zu sein, was sie verstärken, mag einfach klingen. Für Technologieunternehmen stellt es jedoch eine Herausforderung dar, da die Ranking-Algorithmen selbst zwar ausgereift, aber im Allgemeinen noch nicht intelligent genug sind, um die Botschaft jedes Posts vollständig zu erfassen. Die Drohung, auch nur für einige wenige Arten von illegalen Inhalten verklagt zu werden, könnte Plattformen dazu zwingen, ihre Systeme auf einer grundlegenderen Ebene anzupassen. Zum Beispiel könnten sie es für sinnvoll erachten, eine menschliche Aufsicht über das, was verstärkt wird, einzubauen oder sich von automatisch personalisierten Feeds ganz zu entfernen.

Für einige Kritiker wäre das ein Gewinn. Roddy Lindsay, ein ehemaliger Facebook-Datenwissenschaftler, der an den Algorithmen des Unternehmens arbeitete, argumentierte diese Woche in einem Kommentar der New York Times, dass Die Reform des Abschnitts 230 sollte weiter gehen . Er schlägt vor, den Haftungsschutz für alle Inhalte abzuschaffen, die soziale Plattformen über personalisierte Empfehlungssoftware verstärken. Die Idee spiegelt Haugens eigenen Vorschlag wider. Sowohl Lindsay als auch Haugen sagen, dass Unternehmen wie Facebook darauf reagieren würden, indem sie ihre Empfehlungsalgorithmen aufgeben und zu Feeds zurückkehren, die den Benutzern einfach jeden Beitrag der Personen anzeigen, denen sie folgen.

Nick Clegg, Vizepräsident für globale Angelegenheiten und Kommunikation von Facebook, argumentierte am Sonntag gegen diese Idee ABCs 'Diese Woche'.

Die Werbegeschichte wird unter der Werbung fortgesetzt

„Wenn wir den Algorithmus einfach flächendeckend entfernen würden, würde das erste, was passieren würde, dass die Leute mehr und nicht weniger Hassreden sehen; mehr, nicht weniger, Fehlinformationen; mehr, nicht weniger schädliche Inhalte“, sagte Clegg. 'Wieso den? Weil diese algorithmischen Systeme genau wie ein großartiger, riesiger Spam-Filter konzipiert sind, um schlechte Inhalte zu erkennen, zu verwerfen und herabzustufen.“

Mehr als Facebook verlassen sich soziale Videoplattformen wie TikTok und YouTube auf Algorithmen, um die klügsten und am besten produzierten Videos ihrer Nutzer über die Berge amateurhafter Bemühungen hinauszuheben. TikTok ist ohne die Seite 'Für Sie' kaum vorstellbar, die stark auf den Anzeigeverlauf eines Benutzers zurückgreift, um auf seine Interessen zugeschnittene Videos bereitzustellen, einschließlich neuer Drehungen auf Memes, die er in der Vergangenheit gesehen hat.

Der von Malinowski und Rep. Anna G. Eshoo (D-Calif.) vorgeschlagene Gesetzentwurf würde einen vorsichtigeren Ansatz verfolgen und den Schutz nach Abschnitt 230 nur dann aufheben, wenn undurchsichtige Algorithmen der Plattformen Inhalte im Zusammenhang mit Bürgerrechtsverletzungen oder internationalem Terrorismus fördern.

Die Werbegeschichte wird unter der Werbung fortgesetzt

„Wir haben versucht, eine Lösung zu entwickeln, die eng auf das Problem zugeschnitten ist“, sagte Malinowski. „Wir versuchen nicht, das Internet zu töten. Wir versuchen nicht, Facebook oder YouTube zu beenden.“

Stellungnahme: Der Kongress muss entscheiden: Wird er die Gewinne aus den sozialen Medien schützen oder die Demokratie?

In ähnlicher Weise hat Senatorin Amy Klobuchar (D-Minn.) im Juli einen Gesetzentwurf vorgelegt, um den Haftungsschild zu entfernen, wenn Plattformen medizinische Fehlinformationen fördern während eines Gesundheitsnotfalls.

Auf der anderen Seite des Ganges brachte Senator Marco Rubio (R-Fla.) im Juni einen Gesetzentwurf ein, der den Haftungsschutz von Technologieunternehmen entfernen würde, wenn sie entweder fördern oder „Zensur“ bestimmter politischer Standpunkte . Obwohl dieses Gesetz wenig Anklang gefunden hat, spiegelt es das Interesse der Republikaner wider, die Macht der Plattformen bei der Moderation von Inhalten zusammen mit ihren Algorithmen einzuschränken.

Die Geschichte geht unter der Werbung weiter

Jeder Vorschlag, Abschnitt 230 zu ändern, löst in technologiepolitischen Kreisen Kontroversen aus. Als der Kongress es 2018 zuletzt änderte, war es das Ziel, den Online-Sexhandel einzudämmen, aber Sexarbeiterinnen und Forscher sagten, der praktische Effekt sei, Online-Dienstleister in Richtung zu drängen hartes Durchgreifen gegen eine bereits gefährdete Gruppe .

Werbung

„Ich bin im Allgemeinen besorgt über die Reformen von Abschnitt 230“, sagte Allie Funk, eine leitende Forschungsanalystin beim gemeinnützigen Freedom House und Mitautorin des kürzlich veröffentlichten Jahresbericht zur weltweiten Internetfreiheit . „Was wir auf der ganzen Welt gesehen haben, ist, dass wenn wir den Schutz gegen die Haftung von Vermittlern optimieren, es oft Unternehmen gibt, die auf der Seite der Zensur stehen und politische, soziale und religiöse Reden entfernen, insbesondere von denen in marginalisierten Gemeinschaften.“

Funk argumentierte, dass die Übel der sozialen Medien besser durch eine Kombination aus stärkerem Verbraucherschutz, Wettbewerbsrichtlinien, die die Marktmacht dominanter Plattformen einschränken, und Transparenzanforderungen angegangen werden könnten.

Evan Greer, Direktor der gemeinnützigen Interessenvertretung Fight for the Future, befürchtet, dass der Gesetzentwurf von Eshoo-Malinowski und andere soziale Netzwerke wie Facebook dazu zwingen würden, sich darauf zurückzuziehen, nur bereinigte Inhalte von Unternehmenspartnern auf der Whitelist zu verbreiten. Sie argumentiert, dass das zugrunde liegende Problem bei Social-Media-Unternehmen ihr Geschäftsmodell ist, das auf einer aggressiven Profilerstellung von Benutzern beruht, um sie mit Inhalten und Anzeigen anzusprechen. Die Lösung für manipulative Algorithmen sei die Verabschiedung eines Datenschutzgesetzes. stark genug, um dieses Geschäftsmodell effektiv zu zerstören. '

Beitragsberichte: Was tun wir mit Facebook?

Andere Ideen zur Regulierung von Algorithmen würden Abschnitt 230 intakt lassen. Ein parteiübergreifender Gesetzentwurf namens Gesetz zur Transparenz von Filterblasen , die Haugen in ihrer Aussage befürwortete, würde von den größten sozialen Plattformen verlangen, den Verbrauchern ihre Algorithmen besser zu erklären und jedem die Möglichkeit eines Feeds anzubieten, der nicht von Ranking-Software manipuliert wird.

„Je mehr Transparenz die Verbraucher in Bezug darauf haben, wie soziale Medien und andere Internetplattformen Inhalte in ihren Diensten priorisieren, desto besser“, sagte Senator John Thune (RS.D.), einer der Mitautoren, als das Gesetz wieder eingeführt wurde im Juni.

Ein Paar demokratischer Abgeordneter, Rep. Doris Matsui (Kalifornien) und Sen. Edward J. Markey (Mass.), stellten die Algorithmische Gerechtigkeit und Transparenzgesetz für Online-Plattformen im Mai. Es würde Algorithmen verbieten, die aufgrund von Rasse, Alter, Geschlecht und anderen geschützten Klassen diskriminieren, nicht nur in sozialen Medien, sondern auch in Arenen wie Wohnungs- und Stellenanzeigen. Es würde auch verlangen, dass Online-Plattformen Beschreibungen ihrer Algorithmen zur Überprüfung durch die Federal Trade Commission einreichen und öffentliche Berichte über ihre Praktiken bei der Inhaltsmoderation veröffentlichen.

Daphne Keller, die das Programm zur Plattformregulierung am Cyber ​​Policy Center der Stanford University leitet, hat die Idee, die Arten von Sprache zu regulieren, die Plattformen verstärken können, kalt gelassen und argumentiert, dass Gesetzesentwürfe wie die von Eshoo und Malinowski wahrscheinlich gegen den Ersten Verfassungszusatz verstoßen würden.

„Jedes Mal, wenn ein Gericht einen Versuch untersucht hat, die Verbreitung bestimmter Arten von Rede einzuschränken, haben sie gesagt: „Das ist genau das Gleiche, als ob wir diese Rede komplett verboten hätten. Wir erkennen keinen Unterschied’ “, sagte Keller.

Vorschläge, die algorithmische Amplifikation insgesamt zu begrenzen, wie die von Lindsay, könnten besser abschneiden als solche, die auf bestimmte Inhaltskategorien abzielen, fügte Keller hinzu, aber dann könnten Social-Media-Unternehmen argumentieren, dass ihre Algorithmen durch ihr Recht zur Festlegung redaktioneller Richtlinien im ersten Verfassungszusatz geschützt sind.

Perspektive: Warum das Verbot schädlicher Social-Media-Inhalte mit einem harten Rechtsstreit konfrontiert wäre

Das ist in China kein Thema, wo die Regulierungsbehörden eine Dreijährige Kampagne zur Regulierung von Algorithmen für Fairness, Transparenz und Übereinstimmung mit den sozialistischen Idealen der Regierung.

In Europa enthält das vorgeschlagene Gesetz über digitale Dienste Transparenzbestimmungen, die von Plattformen verlangen würden, Informationen über ihre Algorithmen und Praktiken der Inhaltsmoderation gegenüber Regulierungsbehörden und unabhängigen Forschern offenzulegen.

Einer der kreativeren Ansätze zum Thema Algorithmus konzentriert sich darauf, den Nutzern von Social Media die Möglichkeit zu geben, ihr eigenes Ranking-System zu wählen. Die Gelehrten Francis Fukuyama von Stanford und Barak Richman von der Duke University schlagen vor, dominante Netzwerke wie Facebook vorzuschreiben, damit externe Softwareentwickler „Middleware“ bauen und anbieten — Programme von Drittanbietern, die die Aufgabe übernehmen, die Feeds der Benutzer zu bewerten und Inhalte zu filtern, die sie nicht sehen möchten. Das würde das grundlegende Geschäftsmodell von Facebook intakt lassen, aber seine Macht über den Diskurs verteilen und den Menschen gleichzeitig die Möglichkeit geben, sich für Algorithmen zu entscheiden, die nicht unbedingt für die Wachstums- und Engagement-Kennzahlen optimieren, mit denen Facebook verbunden zu sein scheint.

Facebook weist seinerseits darauf hin, dass es den Nutzern seiner Haupt-App bereits die Möglichkeit bietet, zu einem zurückzukehren meist umgekehrt chronologischer Newsfeed . Clegg kündigte am Sonntag auch an, dass das Unternehmen Reduzieren Sie die Menge an Politik in den Feeds der Benutzer zugunsten von mehr Inhalten von ihren Freunden. Und das Unternehmen hat angekündigt, dass es einige Formen der technischen Regulierung begrüßen würde, möglicherweise einschließlich Datenschutzgesetzen und Änderungen des Abschnitts 230 – nur nicht die Art, die sein Geschäftsmodell oder seine Ranking-Algorithmen verbieten würde.

Kommentar Kommentare GiftOutline Geschenkartikel Loading...