[ad_1]
LinkedIn hat ein neues Erkennungssystem eingeführt, das auf KI basiert und dazu dient, gegenrichtlinienwidrige Inhalte in Beiträgen zu erkennen und den Moderatoren-Workflow zu optimieren. Das System filtert potenziell richtlinienwidrigen Inhalt durch LinkedIn’s KI-Lesersystem und priorisiert Inhalte mit einer höheren Wahrscheinlichkeit für Richtlinienverstöße. Es zielt darauf ab, die Arbeitsbelastung der menschlichen Moderatoren zu reduzieren und sicherzustellen, dass die schwerwiegendsten Fälle schneller bearbeitet werden. Die Genauigkeit des automatisierten Erkennungssystems ist dabei entscheidend und LinkedIn aktualisiert seine Modelle kontinuierlich anhand aktueller Beispiele. Der aktualisierte Moderationsfluss kann automatisch Entscheidungen für etwa 10% der Inhaltsschlange treffen und übertrifft damit die Leistung eines typischen menschlichen Prüfers. Dieser Ansatz entlastet die menschlichen Prüfer und führt zu einer um etwa 60% verkürzten durchschnittlichen Erkennungszeit für richtlinienwidrige Inhalte. LinkedIn glaubt, dass sich diese Verbesserung positiv auf das Nutzungserlebnis auswirken wird und hofft, dass andere Apps von seinen Erkennungsabläufen lernen können.

Einführung

LinkedIn hat ein neues Erkennungssystem eingeführt, das auf künstlicher Intelligenz (KI) basiert, um politikverletzenden Inhalt in Beiträgen zu erkennen und den Moderationsworkflow zu optimieren. Das System filtert potenziell verletzenden Inhalt durch LinkedIns KI-Lesersystem und priorisiert Inhalte mit einer höheren Wahrscheinlichkeit, die Richtlinien zu verletzen. Mit der Implementierung dieses Systems möchte LinkedIn die Arbeitsbelastung der menschlichen Moderatoren verfeinern und sicherstellen, dass die schwerwiegendsten Fälle schneller behandelt werden.

KI-Lesersystem und automatische Erkennung

Das KI-Lesersystem von LinkedIn spielt eine entscheidende Rolle bei der Erkennung von politikverletzendem Inhalt. Das System verwendet fortschrittliche Algorithmen und maschinelles Lernen, um den auf der Plattform geposteten Inhalt zu analysieren. Es nutzt die natürliche Sprachverarbeitung (NLP) und die Computervision, um sowohl Texte als auch Bilder zu verstehen und potenzielle Verstöße genau zu identifizieren.

Das automatische Erkennungssystem wird kontinuierlich aktualisiert, um die Genauigkeit zu verbessern. LinkedIn trainiert seine KI-Modelle mit einem großen Datensatz, der Beispiele für politikverletzenden Inhalt enthält. Diese Modelle lernen, Muster zu erkennen und potenzielle Verstöße anhand von Schreibstil, Wortwahl, Bildinhalt und anderen Faktoren zu erkennen. Die regelmäßigen Updates helfen dem System, sich an aufkommende Trends und neue Arten von Verstößen anzupassen.

Vorteile der automatischen Erkennung

Einer der wesentlichen Vorteile des automatischen Erkennungssystems besteht darin, dass es Entscheidungen über rund 10% der Warteschlangeninhalte automatisch treffen kann. Dies übertrifft die Leistung eines typischen menschlichen Prüfers und ermöglicht es menschlichen Moderatoren, sich auf komplexere Fälle zu konzentrieren. Durch Automatisierung des Moderationsprozesses verringert LinkedIn die Belastung der menschlichen Prüfer und erhöht die Effizienz der Inhaltsprüfung.

Das KI-System von LinkedIn verkürzt außerdem die durchschnittliche Zeit zur Erkennung von politikverletzendem Inhalt um etwa 60%. Die automatische Erkennung und Priorisierung von Inhalten mit hohem Risiko gewährleisten, dass schwerwiegende Verstöße zeitnah behoben werden und so die allgemeine Benutzererfahrung auf der Plattform verbessert wird.

Verbesserung von Genauigkeit und Effektivität

Um die Genauigkeit und Effektivität seines Erkennungssystems kontinuierlich zu verbessern, sammelt LinkedIn aktiv Feedback von Nutzern und menschlichen Moderatoren. Menschliche Moderatoren spielen eine wichtige Rolle bei der Verfeinerung der KI-Modelle, indem sie markierte Inhalte überprüfen und Feedback zu den Entscheidungen des Systems geben. Ihre Expertise hilft den KI-Modellen zu lernen und sich im Laufe der Zeit zu verbessern, um falsch Positive und falsch Negative zu reduzieren.

LinkedIn verfolgt auch die Ergebnisse seiner automatisierten Entscheidungen und sammelt Feedback von Nutzern, die Inhalte gemeldet haben. Dieser Rückkopplungsprozess ermöglicht es ihnen, ihre Modelle und Algorithmen genau abzustimmen, um den Erwartungen der Benutzer besser gerecht zu werden und mögliche Voreingenommenheiten oder Schwachstellen anzugehen.

Umgang mit Voreingenommenheit und falschen Positiven/Negativen

LinkedIn erkennt die Bedeutung der Behandlung von Voreingenommenheiten in seinen KI-Modellen an und arbeitet aktiv daran, deren Auswirkungen zu minimieren. Durch die Einbindung menschlicher Moderatoren und diverser Teams in den Modellierung- und Überprüfungsprozess zielt LinkedIn darauf ab, Voreingenommenheit zu reduzieren und ein faires und inklusives Inhaltsmoderationssystem zu gewährleisten.

Das KI-System wird kontinuierlich eingestellt, um das richtige Gleichgewicht zwischen der Reduzierung falsch Positiver und falsch Negativer zu finden. LinkedIn versteht, dass beide Arten von Fehlern erhebliche Folgen haben können. Daher zielt die kontinuierliche Weiterentwicklung der KI-Modelle darauf ab, das höchste Maß an Genauigkeit zu erreichen.

Lernen von LinkedIns Erkennungsabläufen

LinkedIn ist davon überzeugt, dass seine verbesserten Erkennungsabläufe ein wertvolles Beispiel für andere Plattformen und Apps sein können. Die Kombination aus KI-gesteuerter Erkennung, automatischer Entscheidungsfindung und menschlicher Moderationskompetenz kann die Prozesse der Inhaltsmoderation erheblich verbessern. Durch die Implementierung ähnlicher Systeme können andere Plattformen die Belastung der menschlichen Prüfer verringern, die Erkennungsgeschwindigkeit verbessern und die Benutzererfahrung steigern.

Fazit

Die Einführung eines KI-gesteuerten Erkennungssystems für politikverletzenden Inhalt durch LinkedIn markiert einen bedeutenden Schritt zur Optimierung des Moderationsworkflows. Das System nutzt KI-Algorithmen, um politikverletzenden Inhalt automatisch zu erkennen und zu priorisieren, wodurch die Belastung der menschlichen Prüfer verringert und die durchschnittliche Erkennungszeit verkürzt wird. Durch kontinuierliche Updates und Feedbackschleifen wird die Genauigkeit und Effektivität des Systems gewährleistet. LinkedIns verbesserte Erkennungsabläufe dienen als Modell für andere Plattformen, um ihre Inhaltsmoderationsprozesse zu verbessern und die Benutzererfahrung zu optimieren.

Quelle