ИИ в Call of Duty, который отслеживает оскорбления игроков в голосовом чате, значительно снизил уровень токсичности в онлайн шутере
Большое количество онлайн-игр известно своей токсичностью, где вместо того, чтобы весело провести время, вас будут оскорблять. И это отталкивает определенное количество игроков от подобных игр, но Activision активно борется с этим.
Что известно
В Call of Duty с июня 2024 года есть ToxMod. Это модерация на основе ИИ, который автоматически обнаруживает сообщения, содержащие токсичность, сообщает об этом и дает наказание игроку, которое может, например, запретить на определенное время использовать чат.
Как сообщается, технология ToxMod компании Modulate привела к уменьшению использования голосового чата для оскорблений других игроков на 43%.
В июле 2024, через месяц после внедрения ToxMod, 80% игроков, получивших принудительное наказание, не совершили повторного правонарушения.
Как пишет Insider Gaming, ToxMod настолько умен, что может отличить дружескую шутку от настоящей обиды, определяя разницу, анализируя тон и настроение того, что кто-то говорит. Он достаточно умен, чтобы определить серьезность комментария на основе реакции других пользователей.
Источник: insider-gaming