[ad_1]

X startet rechtliche Schritte wegen Vorwurf steigender Hassreden auf der Plattform

Kritik an X wegen zunehmender Hassreden auf der Plattform

X Corp will sich gegen den Vorwurf wehren, dass Hassreden auf der Plattform seit Elon Musks Kauf zugenommen haben, und verklagt das Centre for Countering Digital Hate (CCDH) wegen verschiedener Berichte, die von der Gruppe veröffentlicht wurden und den Anstieg bedenklicher Inhalte verfolgen.

Die CCDH veröffentlichte mehrere Berichte, in denen sie behauptet, den Anstieg von Hassreden in der App seit Musks Übernahme der Plattform verfolgt zu haben. Im Dezember berichtete die Gruppe, dass Beschimpfungen gegen Schwarze und transgender Personen nach Musks Übernahme der App deutlich zugenommen hatten. Die Forschungsergebnisse deuten auch darauf hin, dass Twitter regelbrechende Tweets von Twitter Blue-Abonnenten nicht sanktioniert und Tweets, die die LGBTQ+-Gemeinschaft erwähnen und gleichzeitig „Grooming“-Beschimpfungen enthalten, aktiv bleiben lässt.

Das neue Konzept der Plattform in Bezug auf Redefreiheit

Einige dieser Berichte scheinen mit dem neuen Ansatz von X namens „Freedom of Speech, Not Reach“ im Einklang zu stehen, bei dem das X-Team eher dazu neigt, Tweets stehen zu lassen, anstatt sie zu entfernen. Dennoch versucht X nun, die Behauptungen der CCDH vor Gericht zu widerlegen, da Musk herausfinden möchte, wer hinter der Gruppe steckt.

Reaktion der CCDH auf die rechtlichen Schritte

Laut der CCDH erhielten sie letzte Woche einen Brief von Elon Musks X Corp, in dem ihnen rechtliche Schritte wegen ihrer Arbeit und der Offenlegung der Verbreitung von Hass und Lügen auf Twitter seit Musks Übernahme angedroht wurden. Musks Handeln sei ein dreister Versuch, ehrliche Kritik und unabhängige Forschung zum Verstummen zu bringen, in der verzweifelten Hoffnung, die Flut negativer Berichte einzudämmen und seine Beziehung zu Werbetreibenden wieder aufzubauen.

Motivation hinter den rechtlichen Schritten

Das Hauptmotiv für die rechtlichen Schritte besteht darin, hochpublizierte Behauptungen zu widerlegen, dass die Plattform heute weniger werbesicher ist als in der Vergangenheit, in der Hoffnung, Werbepartner zu beruhigen. Allerdings gibt es auch einige valide Punkte, die X bestreitet. Meta hat die Ergebnisse der CCDH ebenfalls kritisiert und festgestellt, dass sie in ihrem Umfang begrenzt sind und daher nicht auf die Leistung von Meta bei der Eindämmung von Hassreden hinweisen.

Einschränkungen von Bewertungen Dritter

Die Einschränkungen von Drittgruppenbewertungen sind unvermeidlich. Externe Gruppen können nur auf eine bestimmte Anzahl von Beiträgen und Beispielen zugreifen. Daher ist jede solche Bewertung nur relativ zum Inhalt, den sie in ihre Studie aufnehmen. Sowohl Meta als auch X behaupten, dass die CCDH-Berichte zu begrenzt seien, um aussagekräftig zu sein. Daher sollten die von ihnen gezogenen Schlussfolgerungen nicht als Beispiele für ihre umfassendere Leistung angesehen werden.

Auswirkungen der Medienberichterstattung auf X

Das hat jedoch nicht verhindert, dass solche Berichte weitreichende Medienberichterstattung erhalten haben, was wahrscheinlich Auswirkungen auf das Geschäft von X hatte. Je mehr Berichte über Hassreden und bedenkliche Inhalte erscheinen, desto zögerlicher werden Markenpartner sein, auf der Plattform zu werben. Genau dagegen versuchen Musk und sein juristisches Team nun anzukämpfen, indem sie die Gruppe vor Gericht bringen.

Reaktion der CCDH auf die rechtlichen Schritte

Als Reaktion darauf hat die CCDH versprochen, zu ihren Behauptungen zu stehen und das Schreiben von Musks Anwälten als „beunruhigenden Versuch, diejenigen einzuschüchtern, die den Mut haben, sich gegen Anstiftung, Hass und schädliche Inhalte im Internet einzusetzen“ bezeichnet. Die CCDH hat auch darauf hingewiesen, dass Musk bewusst versucht hat, externe Forschung einzuschränken, indem er die Regeln für den Zugriff auf Daten von Dritten geändert hat und dass daher keine Möglichkeit besteht, eine umfassende Analyse des Plattforminhalts durchzuführen, wie in dem Schreiben gefordert wird.

Vereitelung der Plattformanalyse

Musk und sein X-Team haben die Kosten für den Zugang zur API auf der Plattform erhöht, auch für akademische Gruppen. Dadurch wird eine solche Analyse weitgehend eingeschränkt oder in den meisten Fällen sogar unmöglich gemacht. Dies bedeutet, dass die einzige wahre Informationsquelle in dieser Hinsicht die Daten sind, die X selbst produziert.

Aussagen zu Hassreden bei X

In dieser Hinsicht haben Musk und das X-Team wiederholt behauptet, dass die Zahl der Hassreden seit Musks Übernahme der App gesunken ist. Ihr jüngster Anspruch hierzu lautet: „Wir bleiben bestrebt, Redefreiheit auf Twitter zu erhalten und gleichzeitig die Gesundheit unserer Plattform zu gewährleisten. Heute stammen mehr als 99,99 % der Tweet-Impressionen von gesundem Inhalt, also von Inhalten, die nicht gegen unsere Regeln verstoßen.“

Feinere Bewertung von Hassreden

Es ist jedoch unwahrscheinlich, dass 99,99 % der Tweet-Impressionen von „gesundem Inhalt“ stammen. Ein Teil des Arguments liegt darin, wie das X-Team solche Kommentare und Erwähnungen interpretiert. Das X-Team und seine Bewertungspartner ändern die Definitionen dafür, was als Hassrede gilt.

Zum Beispiel hat Xs Bewertungspartner Sprinklr bereits erklärt, wie seine Systeme eine nuanciertere Bewertung von Hassreden vornehmen, indem sie den Kontext analysieren, in dem identifizierte Hassbegriffe verwendet werden, anstatt nur Erwähnungen zu zählen.

Kritik an Sprinklrs Bewertungsprozess

Laut Sprinklr analysiert das Toxicity-Modell von Sprinklr Daten und kategorisiert Inhalte als „toxisch“, wenn sie dazu dienen, eine Person herabzusetzen oder eine geschützte Kategorie anzugreifen oder marginalisierte Gruppen zu entmenschlichen. Durch die Integration von Faktoren wie umstrittener Sprache und Kontext konnte das Modell falsch-positive und falsch-negative Ergebnisse eliminieren.

Ergebnisse von Sprinklr

Im März fand Sprinklr beispielsweise heraus, dass 86% der X-Beiträge, die Hassreden enthalten, tatsächlich nicht als schädlich oder absichtlich schädigend angesehen wurden. Basierend auf einer Liste von 300 englischsprachigen Schimpfwörtern deutet diese Bewertung darauf hin, dass diese Begriffe 86% der Zeit nicht negativ oder schädlich verwendet werden.

Fehlende Daten zu Gegenargumenten

Dies scheint zwar unplausibel, aber da keine konkreten Daten vorliegen, gibt es keine Möglichkeit, solche Behauptungen zu widerlegen.

Aufforderung zur Veröffentlichung von Gegen-Daten

X könnte dem entgegenwirken, indem es seine eigene Daten veröffentlicht, die es nach eigenen Angaben hat. Die oben genannten Zahlen stammen aus irgendeiner Quelle. Warum also nicht den vollständigen Bericht veröffentlichen, der zu dieser Übersicht geführt hat, und die Gegenbehauptungen detailliert darlegen?

Mögliche Motivation hinter X’s Vorgehen

Es scheint ein einfacher Gegenbeweis zu sein, anstatt vor Gericht zu gehen. Dies verleiht den Behauptungen der CCDH Glaubwürdigkeit, dass dies ein Versuch ist, einzuschüchtern, anstatt Klarheit zu schaffen.

Weitere Berichte über Zunahme von Hassreden

Zu beachten ist auch, dass nicht nur die CCDH von einer Zunahme der Hassreden in der App seit Musks Übernahme berichtet hat. Musk zielt jedoch speziell auf die CCDH ab, basierend auf der Finanzierung der Gruppe und dem Verdacht bezüglich ihrer Ziele.

Analytische Daten als Gegenargument

Aber auch in dieser Hinsicht könnte X dem entgegenwirken, indem es seine eigenen Daten veröffentlicht, von denen es behauptet, sie zu haben. Die oben genannten Zahlen müssen irgendwoher kommen. Warum also nicht einen ausführlichen Bericht über Hassreden veröffentlichen, der die tatsächlichen Durchsetzungsmaßnahmen und die Herkunft der 99,99-%-Angabe detailliert beschreibt? Das könnte ein überzeugender Gegenbeweis zu den Behauptungen der CCDH sein.


Quelle