[ad_1]

Steigt der Hassrede auf Twitter 2.0?

Seit Elon Musks Übernahme bei Twitter gibt es Bedenken in Bezug auf die Lockerung der Regeln in Bezug auf Hassrede, Desinformation und andere besorgniserregende Elemente. Musk unterstützt stark die freie Meinungsäußerung, unabhängig davon, ob sie persönlich unangenehm ist oder nicht. Er hat die Wiederherstellung zehntausender Konten überwacht, die zuvor von der Twitter-Verwaltung gesperrt wurden. Außerdem hat er Beschränkungen aufgehoben, die dazu dienen sollen, COVID-Desinformation einzudämmen, Warnhinweise auf Inhalten chinesischer und russischer Staatsmedien abzusagen und selbst verschiedene Verschwörungstheorien an seine 134 Millionen Follower verbreitet.

Solche Änderungen haben Twitter dazu gebracht, von vielen Werbetreibenden gemieden zu werden, aufgrund von Bedenken bezüglich möglicher Verbindungen zu Hassrede und beleidigendem Material. Doch steigt tatsächlich der Hassrede in Twitter 2.0 an? Oder reduziert sich dieser laut Musks Team aufgrund aktualisierter Prozesse zur Erkennung und Begrenzung solcher Inhalte?

Dies war der zentrale Punkt, der in Musks Interview mit der BBC in dieser Woche angesprochen wurde, das er über Twitter Spaces live übertragen hat. Insgesamt brachte das fast zweistündige Interview keine neuen Erkenntnisse – Musk sprach über seine hastigen Entlassungen bei der App und die Notwendigkeit, Kosten zu sparen, um das Unternehmen zu retten. Musk behauptete, dass sein Hund nun CEO von Twitter sei und sagte, dass Twitter möglicherweise in wenigen Monaten Gewinn machen könnte.

Aber Hassrede und deren Auswirkungen auf Werbetreibende waren ein klarer Knackpunkt, wobei Musk diesen Austausch teilte, um die aus seiner Sicht vorhandene Medienparteilichkeit bei diesem Thema zu verdeutlichen.

Natürlich ist die persönliche Erfahrung eines Nutzers nicht aussagekräftig für das Ausmaß des potenziellen Problems, falls eines besteht. Aber wie von Musk und seinem Team behauptet wird, ist die Hassrede tatsächlich seit seiner Übernahme der App deutlich zurückgegangen.

Könnte das wahr sein? Nach der Wiederherstellung so vieler zuvor gesperrter Konten, von denen viele aufgrund von Verstößen gegen die Regeln zur Hassrede der Plattform geschlossen wurden, scheint dieses Element jedoch nicht zurückgegangen zu sein. Wie kommen Musk und Co. dann auf diese Zahlen – und auf welche Studien bezieht sich die BBC im Hinblick auf den Anstieg von inhaltlich bedenklichem Material?

Es gibt externe Forschungen, die angeblich eine Zunahme der Hassrede zeigen. Wie im BBC-Interview erwähnt, veröffentlichte das Institute for Strategic Dialogue (ISD) im vergangenen Monat eine Studie, die zeigt, dass die Zahl der antisemitischen Tweets im dreimonatigen Zeitraum nach Musks Übernahme der App um mehr als das Doppelte gestiegen ist.

Das ist ein ganz anderes Diagramm als das, das von Twitter geteilt wird. Was ist die Abweichung hier und warum zeigt die Daten des ISD einen anhaltenden Anstieg? In gewisser Weise könnte man sagen, dass der größte Anstieg in diesem Diagramm auf dasselbe Ereignis zurückzuführen ist, auf das sich auch Twitters Daten beziehen, nämlich auf einen Anstieg von Bot-Attacken, die darauf abzielen, Musks Führung zu diskreditieren, indem sie in der App Aufhetzen fördern.

Laut ISD-Bericht: „Wir haben auch einen Anstieg der Erstellung neuer Accounts identifiziert, die Hassrede gepostet haben und die mit Musks Übernahme korreliert. Insgesamt wurden zwischen dem 27. Oktober und dem 6. November 3.855 Accounts erstellt, die mindestens einen antisemitischen Tweet gepostet haben. Dies entspricht mehr als dem Dreifachen der Rate potenziell hasserfüllter Account-Erstellung für den entsprechenden Zeitraum vor der Übernahme.“

Das entspricht wahrscheinlich Twitters Erkennung von Bots. Auch ISD stellt jedoch fest, dass Twitter jetzt mehr Inhalte entfernt: „Der Anteil der von Twitter entfernten antisemitischen Inhalte scheint in der Zeit seit der Übernahme zugenommen zu haben, und zwar um 12 % im Vergleich zu 6 % vor der Übernahme. Diese potenzielle Zunahme der Entfernungsrate hat jedoch nicht mit der Zunahme des insgesamt antisemitischen Inhalts Schritt gehalten, so dass Hassrede auf der Plattform zugänglicher ist als vor Musks Übernahme.“

Die Ergebnisse des ISD korrelieren auch mit ähnlichen Daten vom Center for Countering Digital Hate, die zeigen, dass Beleidigungen gegen schwarze und transgender Menschen kurz nach Musks Übernahme der App signifikant gestiegen sind, während das Engagement für Hassrede ebenfalls zugenommen hat: „Die durchschnittliche Anzahl von Likes, Antworten und Retweets zu Beiträgen mit Schimpfworten betrug in den Wochen vor Musk’s Twitter 2.0 13,3. Seit der Übernahme hat sich das durchschnittliche Engagement für beleidigenden Inhalt auf 49,5 erhöht, laut dem Bericht.“

Aber auch hier handelt es sich um die frühen Stadien dieser Veränderung, was Twitter zugibt. Die Frage ist also, haben sich die Dinge seitdem geändert – und wie haben sie sich geändert, wenn Twitter daran arbeitet, Beschränkungen für Redefreiheit abzubauen?

Twitter hat letzten Monat neue Erkenntnisse von Sprinklr veröffentlicht, die mehr über seine Bemühungen zur Eindämmung von Hassrede und die Berechnung seiner Zahlen enthüllen. Laut Twitter definiert Sprinklr Hassrede, indem es Schimpfwörter im nuancierten Kontext ihres Gebrauchs bewertet. Twitter hat bisher einen breiteren Blick auf das potenzielle Toxisitätsniveau von Schimpfworten genommen. Um Hassrede zu quantifizieren, beginnen Twitter und Sprinklr mit 300 der häufigsten englischsprachigen Schimpfwörter. Wir zählen nicht nur, wie oft sie getwittert werden, sondern auch, wie oft sie gesehen werden (Impressionen). Unsere Modelle bewerten Schimpfwort-Tweets auf „Toxizität“, die Wahrscheinlichkeit, dass sie Hassrede darstellen.

Laut dieser Methodik ist der Großteil der Schimpfwortnutzung auf Twitter tatsächlich keine Hassrede, da bestimmte Begriffe innerhalb bestimmter Gemeinschaften in einer Weise verwendet werden, die eine nuanciertere Bewertung erfordert als nur zählen. Begriffe, die z.B. in der schwarzen Gemeinschaft verwendet werden, werden möglicherweise insgesamt nicht als Hassrede angesehen, wären es jedoch bei der Verwendung von Schlüsselwörtern.

Twitter erklärt, dass dieser Aspekt in den Bewertungsprozess einbezogen wird, wenn andere dies nicht tun, und wenn eine solche Terminologie auf eine hasserfüllte Weise verwendet wird, ergreift Twitter Maßnahmen, um den Tweet zu entfernen oder seine Reichweite einzuschränken. „Sprinklrs Analyse zeigt, dass Hassrede 67% weniger Eindrücke pro Tweet erhält als nicht-toxische Schimpfwort-Tweets. Kein Modell ist perfekt, und diese Arbeit ist nie abgeschlossen. Wir werden weiterhin Hassrede bekämpfen, indem wir andere Sprachen, neue Begriffe und präzisere Methoden integrieren – und gleichzeitig die Transparenz erhöhen.“

Grundsätzlich sagt Twitter, dass das Zählen aller Erwähnungen potenzieller Schimpfwörter, wie es bei diesen externen Studien der Fall ist, kein effektives Mittel ist, um die Auswirkungen dieser Wörter zu messen. Denn es geht nicht darum, wie oft sie erwähnt werden, sondern in welchem Kontext sie verwendet werden und anschließend ihre Reichweite erhalten. Ohne diese Überlegungen in eine Einschätzung einzubeziehen, kann sie nicht genau sein – was erklären würde, warum die Daten von Twitter so sehr von den Ergebnissen der Drittanbieteranalyse abweichen.

Stimmt das? Nun, ohne die vollständigen Vergleichsdaten ist es schwer zu sagen, aber das erweiterte Bewertungsverfahren macht Sinn, was bedeutet, dass eine binäre Analyse solcher Begriffe zumindest in gewisser Weise fehlerhaft ist.

Dennoch drohen Twitter in Deutschland immer noch Milliardenstrafen, weil sie es versäumt haben, Hassrede fristgerecht zu entfernen, gemäß lokaler Vorschriften, und es wird interessant sein zu sehen, welche konkreten Beispiele die deutschen Behörden in diesem Fall liefern werden. Es gibt also immer noch Bedenken – aber der erweiterte Kontext, auf den Twitter verweist, sowie seine erhöhten Bemühungen, Hassrede zu beschränken, machen Sinn.

Wir werden zweifellos mit der Zeit mehr Daten hierzu erhalten, aber das Gesamtbild zeigt ein nuancierteres Bild, als es einige Studienergebnisse vermuten lassen.

Quelle