[ad_1]

Meta’s Oversight Board teilt Jahresbericht und hebt den Wert unabhängiger Beurteilung hervor

Meta’s Oversight Board hat seinen Jahresbericht 2022 veröffentlicht, in dem eine Übersicht über alle geprüften Fälle gegeben wird sowie die nachfolgende Verbesserungen, welche die Meta-Systeme ermöglicht haben. Dadurch wird mehr Transparenz in Meta’s verschiedenen Aktionen geschaffen, um seine Content-Regeln durchzusetzen.

Die Überprüfung des Meta-Boards ist im Grunde ein Experiment in der Regulierung von Social-Media-Plattformen und wie Plattformen Experten zu Rate ziehen sollten, um ihre Regeln zu verfeinern. In dieser Hinsicht kann man sagen, dass es ein Erfolg war. Laut dem Oversight Board:

Von Januar 2021 bis Anfang April 2023 machte das Board insgesamt 191 Empfehlungen an Meta. Für etwa zwei Drittel davon hat Meta die Empfehlung entweder vollständig oder teilweise umgesetzt, oder Fortschritte bei deren Umsetzung gemeldet. Im Jahr 2022 war es ermutigend zu sehen, dass Meta zum ersten Mal systemische Änderungen an seinen Regeln und deren Durchsetzung vorgenommen hat, einschließlich Benachrichtigungen von Nutzern und Regeln zu gefährlichen Organisationen.

Dies war ein Schwerpunkt für das Oversight Board, um mehr Transparenz von Meta in seinen Content-Entscheidungen zu ermöglichen und den Nutzern mehr Verständnis dafür zu geben, warum ihre Inhalte eingeschränkt oder entfernt wurden. Das Board sagt:

In der Vergangenheit haben wir gesehen, dass Benutzer im Dunkeln gelassen wurden, warum Meta ihre Inhalte entfernt hat. Als Antwort auf unsere Empfehlungen hat Meta neue Benachrichtigungen eingeführt, die Menschen weltweit darüber informieren, welches genaue Richtlinie sie bei seinen Richtlinien zu Hassreden, gefährlichen Individuen und Organisationen sowie Mobbing und Belästigung verletzt haben. Als Antwort auf eine weitere Empfehlung hat Meta auch eine weltweite Einführung von Benachrichtigungen durchgeführt, die den Menschen mitteilt, ob ihre Inhalte aufgrund eines menschlichen oder automatisierten Reviews entfernt wurden.

Diese Transparenz ist wichtig, um den Nutzern ein grundlegendes Verständnis zu vermitteln, was dazu beiträgt, Angst abzubauen und Verschwörungstheorien darüber zu bekämpfen, wie Meta solche Entscheidungen trifft. In Abwesenheit von Klarheit werden Menschen versuchen, ihre eigene Erklärung zu finden, und für einige führt das schließlich zu immer abstruseren Theorien über Zensur, autoritäre Kontrolle oder Schlimmeres. Der beste Weg, dies zu vermeiden, besteht darin, mehr Klarheit zu schaffen, was für Meta bei einer so großen Skala logischerweise schwierig ist, aber einfache Erklärungselemente wie diese könnten dazu beitragen, ein besseres Verständnis seiner Prozesse aufzubauen.

Bemerkenswert ist auch, dass Twitter jetzt mehr Einblick in seine Content-Aktionen geben möchte, um dasselbe anzugehen.

Das Oversight Board sagt auch, dass seine Empfehlungen dazu beigetragen haben, den Schutz von Journalisten und Demonstranten zu verbessern, während auch bessere Wege für eine menschliche Überprüfung von Inhalten geschaffen wurden, die zuvor automatisch verboten worden wären. Es ist interessant zu sehen, welche verschiedenen Ansätze hier verfolgt werden und was sie in einem breiteren Kontext der Sozialen Medien bedeuten könnten.

Wie bereits erwähnt, ist das Oversight-Board-Experiment im Grunde ein Arbeitsmodell dafür, wie die Regulierung von Social-Media im großen Stil funktionieren könnte, indem externe Experten hinzugezogen werden, um jede Content-Entscheidung zu überprüfen, womit die Entscheidungen aus den Händen der Social-Media-Plattform-Manager genommen werden.

Im Idealfall würden die Plattformen selbst mehr Rede- und Meinungsfreiheit ermöglichen, um Nutzung und Engagement zu fördern. Aber in Fällen, in denen eine Grenze gezogen werden muss, trifft derzeit jede App ihre eigenen Entscheidungen darüber, was akzeptabel ist und was nicht. Das Oversight Board ist ein Beispiel dafür, wie dies geschehen könnte und warum es von einer Drittpartei-Gruppe getan werden sollte. Bisher hat jedoch keine andere Plattform dasselbe angenommen oder versucht, das Meta-Modell dafür aufzubauen.

Aufgrund der aufgeführten Erkenntnisse und Verbesserungen scheint dieser Ansatz durchaus sinnvoll zu sein, um mehr Verantwortlichkeit und Transparenz bei den Entscheidungen von Social-Media-Plattformen darüber zu gewährleisten, was geteilt werden kann und was nicht. Idealerweise könnte eine ähnliche globale Gruppe für dasselbe eingesetzt werden, mit Aufsicht über alle Social-Apps, aber regionale Unterschiede und Beschränkungen machen dieses Ziel wahrscheinlich unmöglich. Aber vielleicht könnte eine US-basierte Version eingerichtet werden, wobei das Oversight-Board-Modell zeigt, dass dies ein machbarer und wertvoller Weg in diesem Bereich sein könnte.

Den 2022 Jahresbericht des Oversight Boards können Sie hier lesen.

Quelle