Roblox verwendet bereits KI zur Moderation von Sprachchats, aber die endgültige Entscheidung wird immer noch von Menschen getroffen

Jeder, der schon einmal wettbewerbsorientierte Online-Spiele gespielt hat, weiß, wie giftig der Voice-Chat in Spielen sein kann. Im Gegensatz zum Text-Chat, bei dem man Zeit braucht, um etwas zu schreiben, geschieht der Voice-Chat sofort, was es sehr schwierig macht, ihn zu moderieren. Um dieses Problem zu lösen, setzt Roblox aktiv künstliche Intelligenz (KI) ein, räumt aber ein, dass menschliche Kontrolle weiterhin notwendig ist, um eine sichere Umgebung für die Spieler zu gewährleisten.
Was bekannt ist
Auf der Game Developers Conference (GDC ) 2025 sprachen Kiran Bhat, Senior CTO bei Roblox, und Hannes Heikinheimo, Leiter der Abteilung Voice Chat Security, über das Jahr der Verwendung von KI für die Moderation. Bhat wies darauf hin, dass die Hauptschwierigkeit nicht nur in der Erkennung beleidigender Wörter liegt, sondern auch im Verständnis des Tons, der Intensität und des Kontexts, die bestimmen, ob Aussagen wirklich beleidigend sind.
Trotz dieser Herausforderungen hat sich die künstliche Intelligenz als äußerst effektiv erwiesen. Bhat erläuterte, dass sich 85 % des toxischen Verhaltens auf nur vier Hauptkategorien reduzieren lassen und die meisten Verstöße mit etwa 50 Schlüsselwörtern in Verbindung gebracht werden. Das maschinelle Lernen leistet hervorragende Arbeit bei der Erkennung dieser Muster, wodurch die Zahl der Beschwerden über Missbrauch im Voice-Chat erheblich reduziert werden konnte.
Allerdings hat die KI auch ihre Grenzen. Heikinigheimo betonte, dass Algorithmen zwar für Stabilität und Unparteilichkeit sorgen, aber seltene oder kontextuell komplexe Fälle nicht immer richtig interpretieren können, so dass das menschliche Urteilsvermögen unverzichtbar bleibt.
Quelle: Videogamer