ИИ в Call of Duty, который отслеживает оскорбления игроков в голосовом чате, значительно снизил уровень токсичности в онлайн шутере

Автор: Владислав Нужнов, 14 октября 2024, 10:31

Большое количество онлайн-игр известно своей токсичностью, где вместо того, чтобы весело провести время, вас будут оскорблять. И это отталкивает определенное количество игроков от подобных игр, но Activision активно борется с этим.

Что известно

В Call of Duty с июня 2024 года есть ToxMod. Это модерация на основе ИИ, который автоматически обнаруживает сообщения, содержащие токсичность, сообщает об этом и дает наказание игроку, которое может, например, запретить на определенное время использовать чат.

Как сообщается, технология ToxMod компании Modulate привела к уменьшению использования голосового чата для оскорблений других игроков на 43%.

В июле 2024, через месяц после внедрения ToxMod, 80% игроков, получивших принудительное наказание, не совершили повторного правонарушения.

Как пишет Insider Gaming, ToxMod настолько умен, что может отличить дружескую шутку от настоящей обиды, определяя разницу, анализируя тон и настроение того, что кто-то говорит. Он достаточно умен, чтобы определить серьезность комментария на основе реакции других пользователей.

Источник: insider-gaming