Roblox utilise déjà l'IA pour modérer les chats vocaux, mais la décision finale est toujours prise par les humains.

Quiconque a déjà joué à des jeux en ligne compétitifs sait à quel point le chat vocal peut être toxique dans les jeux. Contrairement au chat textuel, où il faut du temps pour écrire quelque chose, le chat vocal se produit instantanément, ce qui le rend très difficile à modérer. Pour résoudre ce problème, Roblox met activement en œuvre l'intelligence artificielle (IA), mais reconnaît que le contrôle humain reste nécessaire pour garantir un environnement sûr aux joueurs.
Voici ce que nous savons
Lors de la Game Developers Conference (GDC ) 2025, Kiran Bhat, directeur technique principal de Roblox, et Hannes Heikinheimo, responsable de la sécurité du chat vocal, ont parlé de l'année d'utilisation de l'IA pour la modération. Kiran Bhat a fait remarquer que la principale difficulté ne réside pas seulement dans la détection des mots offensants, mais aussi dans la compréhension du ton, de l'intensité et du contexte qui déterminent si les déclarations sont réellement offensantes.
Malgré ces difficultés, l'intelligence artificielle s'est révélée très efficace. M. Bhat a expliqué que 85 % des comportements toxiques se résument à quatre catégories principales et que la plupart des violations sont associées à une cinquantaine de mots clés. L'apprentissage automatique fait un excellent travail d'identification de ces schémas, ce qui permet de réduire considérablement le nombre de plaintes pour abus dans les chats vocaux.
Cependant, l'IA a ses limites. Heikinigheimo a souligné que si les algorithmes offrent stabilité et impartialité, ils ne peuvent pas toujours interpréter correctement des cas rares ou complexes sur le plan contextuel, pour lesquels le jugement humain reste indispensable.
Source : Videogamer