[ad_1]
TikTok und X standen beide in der Kritik, was ihre Maßnahmen zur Bekämpfung von Fehlinformationen und Hassrede im Zusammenhang mit dem Israel-Hamas-Konflikt betrifft.

X hat seine Maßnahmen verteidigt und erklärt, dass ein Krisenprotokoll aktiviert und ein länderübergreifendes Führungsteam gebildet wurde, um die Situation anzugehen. Sie geben an, über 3.000 mit gewaltbereiten Gruppen verbundene Konten gelöscht, über 325.000 Inhalte als Verstoß behandelt und Warnungen sowie Suspendierungen an über 375.000 Konten gesendet zu haben.

X entwickelt außerdem die Funktion „Community Notes“, die Nutzer in Moderationsentscheidungen einbeziehen soll, um die Belastung für Mitarbeiter und Systeme zu verringern.

Im Gegensatz dazu gibt TikTok an, allein im Oktober über 925.000 Videos in der Konfliktregion und weitere 730.000 Videos plattformweit wegen Verstoß gegen die Richtlinien entfernt zu haben.

Ein Bericht des Center for Countering Digital Hate (CCDH) legt jedoch nahe, dass X es versäumt, die Mehrheit der Beiträge mit Antisemitismus, Islamophobie und anti-palästinensischem Hass zu entfernen. Das CCDH nutzte das interne Meldesystem von X und markierte 200 Beiträge, von denen eine Woche später noch 98% online waren.

Es ist zu beachten, dass die Stichprobengröße in dem Bericht im Vergleich zu den insgesamt ergriffenen Maßnahmen relativ klein ist. Dennoch decken sich die Ergebnisse mit dem Unterschied in der Anzahl der Maßnahmen zwischen X und TikTok.

Berichte von Drittanbietern zeigen, dass Xs Abhängigkeit von der „Community Notes“-Funktion nicht die gewünschten Ergebnisse erzielt. Die Funktion scheint nicht über die notwendige Durchsetzungsfähigkeit zu verfügen, die sich X wünscht.

X könnte argumentieren, dass ihr Ansatz mehr Diskussion ermöglicht und zu umfangreiche Einschränkungen vermeidet. Allerdings könnten Werbetreibende und regionale Regulierungsgruppen diese Haltung kritisieren.

Insgesamt werfen diese Entwicklungen Fragen zur Moderation bei X auf und stellen ihre Bemühungen zur Bekämpfung von Hassrede und Fehlinformationen in Frage.

1. X’s Maßnahmen und Verteidigung

Zusammenfassung: X hat einen Krisenplan aktiviert und ein interdisziplinäres Führungsteam gebildet, um die Situation anzugehen. Sie geben an, über 3.000 Konten entfernt, Maßnahmen gegen über 325.000 Verstöße ergriffen und Warnungen und Suspendierungen gegenüber über 375.000 Konten ausgesprochen zu haben.

1.1. Krisenplan und Führungsteam

Zusammenfassung: X hat einen Krisenplan umgesetzt und ein interdisziplinäres Führungsteam gebildet, um das Problem anzugehen.

1.2. Entfernung von Konten und Inhaltsmoderation

Zusammenfassung: X gibt an, über 3.000 Konten entfernt und mehr als 325.000 Verstöße bearbeitet zu haben.

1.3. Warnungen und Suspendierungen

Zusammenfassung: X hat Warnungen verschickt und Suspendierungen gegenüber über 375.000 Konten im Zusammenhang mit dem Israel-Hamas-Konflikt ausgesprochen.

2. TikToks Maßnahmen und Ergebnisse

Zusammenfassung: TikTok gibt an, im Konfliktgebiet über 925.000 Videos entfernt und allein im Oktober weitere 730.000 Videos über die Plattform hinweg aufgrund von Verstößen gegen die Richtlinien entfernt zu haben.

2.1. Entfernung von Videos im Konfliktgebiet

Zusammenfassung: TikTok hat eine große Anzahl von Videos im Zusammenhang mit dem Israel-Hamas-Konflikt innerhalb des betroffenen Gebiets entfernt.

2.2. Entfernung von Videos aufgrund von Richtlinienverstößen

Zusammenfassung: TikTok hat auch eine beträchtliche Menge von Videos auf der gesamten Plattform entfernt, da sie gegen ihre Richtlinien verstoßen haben.

3. Bericht des Center for Countering Digital Hate (CCDH)

Zusammenfassung: Der CCDH-Bericht legt nahe, dass X es versäumt, die Mehrheit der Beiträge mit Antisemitismus, Islamfeindlichkeit und anti-palästinensischem Hass zu entfernen. Der Bericht verwendet X’s internes Meldesystem und stellte fest, dass 98% der gemeldeten Beiträge eine Woche später immer noch online waren.

3.1. Ergebnisse des CCDH-Berichts

Zusammenfassung: Der CCDH-Bericht zeigt auf, dass X es versäumt, Beiträge mit Hassrede und Fehlinformationen im Zusammenhang mit dem Israel-Hamas-Konflikt zu entfernen.

3.2. Stichprobengröße und Beschränkungen

Zusammenfassung: Die Stichprobengröße des CCDH-Berichts mag im Vergleich zu den Gesamtmaßnahmen von X relativ klein sein, aber die Ergebnisse stehen in Einklang mit den Unterschieden in den Maßnahmen zwischen X und TikTok.

4. Fragen zur Moderation und Einsatzbereitschaft von X

Zusammenfassung: Der Einsatz von X auf die Community Notes-Funktion und seine Moderationsbemühungen werfen Bedenken hinsichtlich ihres Engagements im Umgang mit Hassrede und Fehlinformationen im Zusammenhang mit dem Israel-Hamas-Konflikt auf.

4.1. Community Notes-Funktion

Zusammenfassung: X’s Community Notes-Funktion zielt darauf ab, die Benutzer in den Moderationsentscheidungsprozess einzubeziehen, aber Berichte von Drittanbietern deuten darauf hin, dass sie möglicherweise nicht die gewünschten Ergebnisse bei der Bekämpfung von Hassrede und Fehlinformationen erzielt.

4.2. Kritik und potenzielle Auswirkungen

Zusammenfassung: Die Herangehensweise von X, die mehr Diskussion zulässt und übermäßige Einschränkungen vermeidet, könnte Kritik von Werbetreibenden und regionalen Regulierungsgruppen hervorrufen.

5. Fazit

Zusammenfassung: Die kritische Betrachtung der Bemühungen von TikTok und X im Umgang mit Fehlinformationen und Hassrede im Israel-Hamas-Konflikt wirft Fragen zur Moderationspraxis von X und ihrem Engagement bei der Bewältigung dieser wichtigen Anliegen auf.

Quelle