Twitter testet neue Funktion zur Verhinderung von Belästigungen im "Sicherheitsmodus
Twitter experimentiert mit seinen bisher aggressivsten Anti-Belästigungs-Funktionen. Das Unternehmen beginnt mit der Erprobung des "Sicherheitsmodus", einer neuen Kontoeinstellung, die automatisch Gegner blockiert, die "potenziell schädliche Sprache" verwenden.
Twitter hat die Funktion erstmals im Februar während seiner "Analyst Day"-Präsentation vorgestellt und beginnt nun, sie einer "kleinen Gruppe von Nutzern" zur Verfügung zu stellen. Es ist noch nicht klar, wann es für die breite Öffentlichkeit verfügbar sein wird.
Einführung in den Sicherheitsmodus. Eine neue Methode zur Begrenzung unerwünschter Interaktionen auf Twitter. pic.twitter.com/xa5Ot2TVhF
- Twitter Safety (@TwitterSafety) September 1, 2021
Wenn der Sicherheitsmodus aktiviert ist, werden Konten, die eine Quelle der Belästigung sein könnten, sieben Tage lang proaktiv gesperrt. Twitter behauptet, dass das System so konzipiert ist, dass Konten von Personen, die man kennt oder mit denen man häufig kommuniziert, nicht blockiert werden, im Gegensatz zu Personen mit einem Verhaltensmuster von Online-Trollen.
Da sich das System noch in einem relativ frühen Stadium befindet, sagt Twitter, dass es wahrscheinlich noch einige Fehler haben wird. Benutzer können Tweets und Konten, die mit dem Sicherheitsmodus gekennzeichnet sind, manuell überprüfen und fehlerhafte automatische Sperren aufheben. Nach einem Zeitraum von sieben Tagen erhalten die Nutzer eine Benachrichtigung mit einer "Zusammenfassung" der vom Sicherheitsmodus durchgeführten Maßnahmen.
Quelle: TwitterSafety