L'IA dans Call of Duty, qui suit les insultes des joueurs dans le chat vocal, réduit considérablement le niveau de toxicité dans le jeu de tir en ligne.
De nombreux jeux en ligne sont connus pour leur toxicité : au lieu de s'amuser, on se fait insulter. Cela pousse un certain nombre de joueurs à s'éloigner de ces jeux, mais Activision lutte activement contre ce phénomène.
Voici ce que nous savons
ToxMod est disponible dans Call of Duty depuis juin 2024. Il s'agit d'une modération basée sur l'IA qui détecte automatiquement les messages contenant de la toxicité, les signale et donne une punition au joueur, qui peut, par exemple, interdire l'utilisation du chat pendant un certain temps.
La technologie ToxMod de Modulate aurait permis de réduire de 43 % l'utilisation du chat vocal pour insulter les autres joueurs.
En juillet 2024, un mois après l'introduction de ToxMod, 80 % des joueurs ayant reçu une punition obligatoire n'ont pas récidivé.
Selon Insider Gaming, ToxMod est tellement intelligent qu'il peut distinguer une plaisanterie amicale d'une véritable insulte en analysant le ton et l'humeur de ce que dit quelqu'un. Il est également assez intelligent pour déterminer la gravité d'un commentaire en se basant sur les réactions des autres utilisateurs.
Source : insider-gaming