YouTube sagt, dass es Jugendliche von seiner Website verbietet. Aber es liefert immer noch beunruhigende Inhalte für kleine Kinder.

Kinder finden auf YouTube und YouTube Kids immer mehr beunruhigendes Material. (Elyse Samuels, William Neff/The Washington Post)

Das YouTube-Video beginnt mit einer beliebten britischen Kinderzeichentrickfigur, Peppa Pig, die sich und ihre Familie vorstellt, aber es gibt fast sofort Anzeichen für Ärger. In der neunten Sekunde öffnet Peppas Mutter den Mund und schreit: „Rauche Gras!“

WpHolen Sie sich die volle Erfahrung.Wählen Sie Ihren PlanPfeilRechts

Das Video – eine gefälschte Version einer echten Peppa-Episode – verschlechtert sich von da an. Über fünf Minuten gibt es Explosionen und rassistische und homophobe Beleidigungen, die ihren Höhepunkt darin haben, dass Peppa und ihre Eltern mit dunklen Sonnenbrillen Marihuana rauchen, während Rapper Snoop Dogg in der Nähe tanzt. Seit dem Upload im Jahr 2015 wurde das veränderte Video, das keine Altersbeschränkung hat, mehr als 1,5 Millionen Mal angesehen.

Die Geschichte geht unter der Werbung weiter

Nach Jahren des Schwörens, unangemessene Inhalte zu überwachen, liefert YouTube weiterhin gewalttätige Bilder, Drogenhinweise, sexuell anzügliche Sequenzen und vulgäre, rassistisch aufgeladene Sprache in Clips, die Kinder in beunruhigender Geschwindigkeit erreichen, sagen Forscher, Eltern und Verbrauchergruppen.

Werbung

Der Empfehlungsalgorithmus von YouTube kann Inhalte nicht zuverlässig nach entsprechenden Altersstufen segmentieren, und die standardmäßige Autoplay-Funktion liefert fast endlose Videostreams, die junge Köpfe verwirren, verstören und erregen. Obwohl viele Eltern versuchen zu überwachen, was ihre Kinder sehen, macht die schiere Menge an YouTube-Inhalten, die viele konsumieren, dies unpraktisch, insbesondere wenn ein einzelner, kurzer Clip eine Reihe von falschen Botschaften liefern kann.

„YouTube ist heute der größte Schmerzpunkt für Eltern“, sagte James Steyer, Geschäftsführer von Common Sense Media, einer in San Francisco ansässigen gemeinnützigen Gruppe, die sich weltweit für Familien und Schulen einsetzt. „Kinder stolpern ständig über völlig unangemessene Inhalte, weil sie algorithmisch gesteuert werden.“



Die Geschichte geht unter der Werbung weiter

Steyer und andere sagen, YouTube sei ein Beispiel für eine tektonische Verschiebung im Kinderprogramm der letzten Generation – weg von der staatlich regulierten, zeitgebundenen Welt des Rundfunkfernsehens. Die zunehmend dominante Online-Welt liefert nahezu unregulierte Inhalte, die von praktisch jedem, fast überall auf der Welt hochgeladen werden können und die Kinder, abhängig von der Wachsamkeit der Eltern, jederzeit erreichen können.

Werbung

YouTube hat immer wieder betont, dass seine Plattform nicht für Kinder gedacht ist, und hat 2015 die YouTube Kids-App entwickelt, um die Nachfrage nach stärker kuratierten Inhalten für ein jüngeres Publikum zu befriedigen.

„Der Schutz von Kindern und Familien hat für uns höchste Priorität“, sagte YouTube in einer Erklärung auf Fragen zu unangemessenen Inhalten, die Kinder erreichen. „Da YouTube nichts für Kinder ist, haben wir viel in die Entwicklung der YouTube Kids-App investiert, einem Ziel speziell für Kinder. Wir gestatten Nutzern unter 13 Jahren nicht, Konten auf YouTube zu erstellen oder zu besitzen, und wenn wir ein Konto einer minderjährigen Person identifizieren, kündigen wir dieses Konto – im Rahmen dieses Prozesses kündigen wir jede Woche Tausende von Konten.'

Die Geschichte geht unter der Werbung weiter

Aber Eltern, Verbrauchergruppen und Kinderärzte berichten, dass YouTube selbst bei Kindern sehr beliebt ist, mehr als die Kinder-App. Kinder sehen YouTube auf Mobilgeräten – ihren eigenen und denen ihrer Eltern – sowie auf internetfähigen Fernsehern und über Browser auf Laptops. Über Browser verlangt YouTube keine Anmeldung von Nutzern, außer in Fällen, in denen ein Video eine Altersbeschränkung aufweist, d. h. es gibt keine praktischen Hindernisse für Kinder, die sich die meisten Videos des Dienstes ansehen.

Werbung

Bei Videos mit Altersbeschränkungen müssen sich Benutzer vor dem Ansehen bei einem Konto anmelden, um sicherzustellen, dass sie mindestens 18 Jahre alt sind. Dies kann Kinder abschrecken, obwohl Experten sagen, dass viele Kinder über ihr Alter lügen, um Konten auf YouTube und anderen Diensten zu erstellen. YouTube sagte, sein „Überprüfungsteam“ legt Altersbeschränkungen für Inhalte fest, die vulgäre Sprache, Nacktheit, Gewalt oder gefährliche Aktivitäten enthalten, wenn solche Videos veröffentlicht werden Aufmerksamkeit von YouTube . Inhalte mit Altersbeschränkungen dürfen keine Werbung enthalten oder von ihren Erstellern monetarisiert werden.

YouTube verbietet Kommentare zu den meisten Videos mit Minderjährigen, um die Ausbeutung von Kindern zu bekämpfen

In einem Umfrage des Pew Research Centers Im vergangenen Jahr gaben mehr als 80 Prozent der Eltern mit Kindern unter 12 an, dass ihre Kinder YouTube ansehen, und 34 Prozent gaben an, dass ihre Kinder es regelmäßig sehen. In seiner jährlichen Umfrage 2017 nannte das Marktforschungsunternehmen Smarty Pants YouTube „die #1 Kindermarke“ und nannte es „die stärkste Marke im Leben von Kindern“. Die Umfrage unterschied sie von der YouTube Kids-App, die bei den 6- bis 12-Jährigen weniger beliebt war.

Die Geschichte geht unter der Werbung weiter

Forscher sagen, dass die Algorithmen von YouTube für die Empfehlung von Inhalten für Kinder besondere Probleme bereiten, da sie oft lange vor einem Bildschirm sitzen und sich alles ansehen, was automatisch abgespielt wird. Der Inhalt, auch wenn er aus Sicht der Eltern unangemessen ist, kann Kinder faszinieren, die nicht die Reife haben, sich von möglicherweise ungesunden Wörtern oder Bildern abzuwenden.

Werbung

Die Probleme können besonders schwerwiegend sein, wenn Kinder nach so beliebten und scheinbar harmlosen Begriffen wie „Spiderman“, „Superheld“ und „Elsa“ suchen. Die eisige blonde Cartoon-Prinzessin, die 2013 in Die Eiskönigin mitspielte, hat so viele manipulierte, unangemessene YouTube-Inhalte hervorgebracht, dass Kritiker solche Videos unter dem Kürzel „Elsagate“ zusammenfassen. Disney antwortete nicht auf Anfragen nach Kommentaren.

Kritiker sagen auch, dass sich das Problem nicht sichtbar verbessert. Die Eingabe von „Peppa“ in die Suchmaschine von YouTube erzeugte beispielsweise mindestens ein empfohlenes Video, das die Forscher laut Angaben zu 70 Prozent der Zeit als „beunruhigend“ einstuften Forschung veröffentlicht im Januar basierend auf Bewertungen von 2.500 YouTube-Videos.

Die Geschichte geht unter der Werbung weiter

Forscher, die nach solchen Schlüsselwörtern fragten, fanden Clips, die eine spärlich bekleidete Elsa zeigen, die sich auf eine andere teilweise unbekleidete Zeichentrickfigur setzt, Spider-Man, der sich mit einer lebensgroßen Rapunzel-Puppe unter den Laken windet, und Peppa, die auf ein Monster mit Messern für die Hände trifft, das inmitten von vulgären Dialogen Schnitte öffnen die Köpfe verschiedener Charaktere in blutigen Angriffen. (YouTube sagte, dass keines dieser Videos gegen seine Richtlinien verstieß und dass keines in der YouTube Kids App erschien; das Video mit einem gewalttätigen Monster hatte Altersbeschränkungen.)

Werbung

Die Forscher fanden auch heraus, dass Kinder eine 45-prozentige Chance haben, innerhalb von 10 Clips mindestens ein „störendes“ oder anderweitig unangemessenes Video zu sehen – eine Strecke, die oft eine Stunde oder so dauert. Einige unangemessene Videos waren grobe Animationen, einige zeigten Schauspieler in Kostümen. Wieder andere, darunter das Peppa-Video zum Thema Marihuana, waren echte Kindervideos, die mit neuen Wörtern und Bildern versehen waren, die in das Original gespleißt wurden.

Peppa Pig, eine britische Zeichentrickserie für Kinder im Vorschulalter, die 2004 debütierte und ein weltweites Publikum hat, ist ein besonders beliebtes Ziel für diejenigen, die gefälschte alternative Versionen von Originalfolgen oder völlig neue Videos basierend auf Charakteren aus der Serie machen. Entertainment One, das Peppa produziert, lehnte eine Stellungnahme ab.

Die Geschichte geht unter der Werbung weiter

Absolventen der Technischen Universität Zypern, die die Videos mit mehreren bei kleinen Kindern beliebten Charakteren überprüften, stellten fest, dass die gefälschten Videos oft Gewalt, Obszönitäten und sexuell aufgeladenes Verhalten enthielten.

Werbung

„Ich bin ein Elternteil. Es passiert definitiv häufiger, als mir lieb ist“, sagte Jeremy Blackburn, ein Informatikprofessor an der University of Alabama in Birmingham, der die Studie mitverfasst hat und drei Kinder hat. „Das Problem ist, dass ihnen Dinge serviert und empfohlen werden können, die nicht nur Müll, sondern unangemessen sind, nur schlechte Sachen.“

Ein Aufräumversprechen, das gescheitert ist

Die Biologin Leonore Reiser, die in Oakland, Kalifornien, lebt, sagte, ihr 9-jähriger Sohn habe kürzlich gemeldet, Videos auf YouTube gesehen zu haben, die sie beunruhigten. Als sie seinen Anzeigeverlauf überprüfte, fand Reiser eine mit der Aufschrift „Zwei Mädchen wollen [Kraftausdruck] einen Mann“.

Die Geschichte geht unter der Werbung weiter

Es zeigte zwei junge Frauen in Badeanzügen, die in einem öffentlichen Schwimmbad um die Aufmerksamkeit eines Mannes wetteiferten, und an anderer Stelle im Video, wie derselbe Mann eine der Brüste der Frauen streichelte. Reiser stellte später fest, dass ihr Sohn während einer Zeit, in der er YouTube unbeaufsichtigt sah, nach einer Obszönität gesucht hatte, was dazu führte, dass das Video als empfohlene Option auftauchte. .

Werbung

Als die Washington Post den Clip rezensierte, enthielt die nächste Reihe von Videos, die der YouTube-Algorithmus empfahl – auf einem Panel auf der rechten Seite des Bildschirms unter der Überschrift „Up next“ – zahlreiche Szenen sexueller Intimität, die vor Nacktheit aufhörten. Die meisten waren nicht durch das Alter eingeschränkt.

Während Reiser unzufrieden mit den Inhalten war, die ihr Sohn bei der Suche mit einer obszönen Sprache gefunden hatte, war Reiser mehr verärgert über die Texte in einigen der Rap-Musik, die die Fußball- und Basketball-Highlight-Videos begleitet, die ihr Sohn häufig ansieht. „Ich mache mir eigentlich weniger Sorgen um die Schimpfwörter als um Typen, die über Arschlöcher und Hacken und Gewalt reden“, sagte Reiser. 'Das ist es, was meine Ziege wirklich macht - die Gewalt gegen Frauen.'

Hasserfüllte und gewalttätige Videos sind ein Teil der Inhalte, die YouTube entfernt

YouTube hat sich seit langem geschworen, unangemessene Inhalte auf seiner Plattform inmitten einer Reihe von Kontroversen über gewalttätigen Extremismus, hasserfüllte Online-Verschwörungen und beunruhigende Kinderinhalte zu bereinigen. Das Unternehmen hat Tausende von menschlichen Moderatoren eingestellt und versucht, seine Systeme für künstliche Intelligenz zu verfeinern, um Videos, die gegen seine Community-Richtlinien verstoßen, besser zu erkennen und zu entfernen.

Die Werbegeschichte wird unter der Werbung fortgesetzt

Aber die Bemühungen sind gescheitert, wenn es um viele Arten anstößiger Inhalte geht, sagen Forscher, Eltern und Anwälte. Erst in den letzten Wochen hat ein Video-Blogger dokumentiert, wie Pädophile Videos von Kindern durchkämmen und Zeitstempel von sexuell anzüglichen Momenten teilen, was der Blogger mit einem 'Soft-Core-Pädophilie-Ring' verglich, und ein Kinderarzt aus Florida fand heraus, dass ein Clip In Kindervideos auf YouTube und YouTube Kids wurde erklärt, wie man Selbstmord begeht.

Solche Kontroversen haben einige Werbetreibende dazu veranlasst, YouTube aufzugeben, wie es kürzlich Disney, Nestlé und andere getan haben. Aber das Fortbestehen der Probleme hat einige derjenigen, die die Plattform studieren, zu dem Schluss gebracht, dass der fast unverständliche Umfang von YouTube – mit 500 Stunden neuem Video, das jede Minute hochgeladen wird – die Polizei so schwierig gemacht hat, dass Eltern ihre Kinder davon abhalten sollten, es anzusehen.

Ein prominenter Kritiker, Künstler und Autor, James Bridle, der im November 2017 einen Medium-Beitrag verwendet hat, um beunruhigende Inhalte hervorzuheben, die YouTube an Kinder liefert, sagte, dass die vom Unternehmen versuchten Korrekturen nicht funktioniert haben. Der Algorithmus identifiziert und liefert weiterhin die extremsten und anregendsten Inhalte.

'Es scheint ziemlich offensichtlich zu sein, dass das nur ein Spiel von Whack-a-Mole ist', sagte Bridle, Autor von ' New Dark Age: Technologie und das Ende der Zukunft .“ „Je extremer [ein Video] ist, desto mehr Klicks bekommt es. … Stellen Sie sich nun vor, das trifft auf kleine Kinder zu.“

Er war noch unverblümter in a TED-Talk letztes Jahr: 'Wenn Sie kleine Kinder haben, halten Sie sie von YouTube fern.'

Ein scheinbar bodenloser Videobrunnen

Der Empfehlungsalgorithmus von YouTube verwendet maschinelles Lernen und künstliche Intelligenz, um zu untersuchen, was sich Nutzer ansehen, und ihnen andere Videos vorzuschlagen. Wenn Autoplay aktiviert ist, wie es standardmäßig auf YouTube ist, wird der Dienst auf unbestimmte Zeit weiterhin Videos mit ähnlichen Themen und Funktionen bereitstellen.

Der ehemalige YouTube-Ingenieur Guillaume Chaslot, der das Unternehmen 2013 verließ und jetzt die Watchdog-Gruppe AlgoTransparency leitet, sagte, YouTube werde Schwierigkeiten haben, den Fluss unangemessener Inhalte einzudämmen, solange seine künstliche Intelligenz darauf trainiert wird, die „Wiedergabezeit“ zu maximieren, eine Metrik, die antreibt das werbegetriebene Geschäftsmodell des Unternehmens .

Das Ergebnis sei ein Empfehlungssystem, bei dem es vor allem darum geht, Nutzer zu stimulieren. In dem jüngsten Skandal um offensichtliche Pädophile, die die Zeitstempel provokanter Bilder in Videokommentarabschnitten auflisten, sagte Chaslot, der Empfehlungsalgorithmus habe dazu beigetragen, solche Inhalte zu verbreiten. „Der beste Schritt für den [Algorithmus] besteht darin, die Videos für Pädophile zu finden und sie den Leuten zu liefern, die am ehesten Pädophile werden. Das macht die beste künstliche Intelligenz der Welt.“

Auch das Bundesdatenschutzgesetz verkompliziert das Bild. Websites, die sich an Kinder unter 13 Jahren richten, dürfen die meisten Arten von personenbezogenen Daten über Benutzer ohne elterliche Erlaubnis nicht sammeln. YouTube, das für seine Gewinne auf datengesteuerte Werbung setzt, umgeht diese Einschränkung, indem es behauptet, dass der Dienst überhaupt nicht von Kindern genutzt werden sollte. Wenn YouTube bestimmte Inhalte für Kinder ausdrücklich empfahl, wäre diese Position unhaltbar, sagte Chaslot.

Mehrere Verbrauchergruppen reichten im vergangenen Jahr eine Beschwerde bei den Bundesaufsichtsbehörden ein und behaupteten, YouTube sei sich bewusst, dass Kinder die Website trotz ihrer Richtlinien regelmäßig nutzen und daher routinemäßig gegen das Datenschutzgesetz verstoßen.

Chaslot argumentierte, dass das Unternehmen, um YouTube für Kinder sicherer zu machen, etwas anderes als die „Wiedergabezeit“ priorisieren muss, idealerweise ein System, bei dem Eltern Videos basierend auf dem Bildungswert oder der Angemessenheit bewerten und nicht nur darauf, was Kinder automatisch anklicken oder automatisch bei Autoplay ansehen. YouTube sagt, dass es in seinem Empfehlungsalgorithmus die Betonung der „Wiedergabezeit“ reduziert hat.

Die Kinderärztin Jenny Radesky, eine Forscherin der University of Michigan, die die Auswirkungen fortschrittlicher Technologien auf Kinder und Familien untersucht, sagte, dass Kinder einige der Videos nicht verstehen können, insbesondere wenn Charaktere, die sie bewundern, sich unangemessen verhalten. Dies stellt ihr aufkommendes Gefühl für richtig und falsch in Frage und verursacht Verwirrung. Es kann auch dazu führen, dass einige Kinder die Verhaltensweisen nachahmen, die sie sehen, sagte Radesky.

Aber auch die Belastung für Eltern ist groß, da sie ihre Kinder vor störenden Bildern und Nachrichten schützen möchten, die immer so nah sind wie das nächste mobile Gerät. Viele Eltern sagen, dass sie eine ständige Überwachung als unpraktisch und Inhaltskontrollen als begrenzt und schwierig empfinden.

Hat Netflix ein Killerproblem?

'Das ist schwer. Es lastet so viel auf den Eltern, Kinder zu überwachen und zu beobachten “, sagte Radesky. 'Es braucht einen Design-Fix.'

Senator Edward Markey (D-Mass.) sagte, er werde bald Gesetze vorschlagen, um Online-Kinderinhalte eher wie traditionelles Kinderfernsehen zu behandeln. Er befürwortet eine Kennzeichnung der Altersangemessenheit von Videos, um Familien bei der Entscheidungsfindung zu helfen, und möchte die Verwendung von Designfunktionen wie Autoplay hinterfragen, die zu besonders starkem oder sogar zwanghaftem Konsum anregen.

„Es gibt extrem starke Beweise dafür, dass Algorithmen Inhalte auf YouTube verbreiten, die für Kinder nicht altersgerecht sind, und das ist nicht in Ordnung“, sagte Markey. „YouTube ist, wo Kinder hingehen. Also müssen wir das Problem lösen. … Wir müssen Regeln aufstellen, um Kinder zu schützen.“

Reiser, die Mutter aus Oakland, deren 9-Jährige unangemessene Videos fand, sagte, ihre jüngsten Entdeckungen hätten sie dazu gebracht, die Plattform von ihrem Zuhause aus zu blockieren. „Wegen all der gruseligen, seltsamen Dinge, die er findet, schauen wir uns YouTube tatsächlich weniger an. Ich habe es vom Fernseher gelöscht und ich lösche es von meinem iPhone.“

Elizabeth Dwoskin in San Francisco und Tony Romm haben zu diesem Bericht beigetragen.

Kommentar Kommentare GiftOutline Geschenkartikel Loading...