Die KI in Call of Duty, die die Beleidigungen der Spieler im Voice-Chat verfolgt, reduziert den Grad der Toxizität in dem Online-Shooter erheblich
Viele Online-Spiele sind für ihre Toxizität bekannt. Statt Spaß zu haben, wird man beleidigt. Und das treibt eine gewisse Anzahl von Spielern von solchen Spielen weg, aber Activision kämpft aktiv dagegen an.
Was bekannt ist
ToxMod ist seit Juni 2024 in Call of Duty verfügbar. Dabei handelt es sich um eine KI-basierte Moderation, die automatisch Nachrichten mit toxischen Inhalten erkennt, meldet und dem Spieler eine Strafe auferlegt, die zum Beispiel die Nutzung des Chats für eine bestimmte Zeit verbieten kann.
Die ToxMod-Technologie von Modulate hat Berichten zufolge die Nutzung des Voice-Chats zur Beleidigung anderer Spieler um 43 % reduziert.
Im Juli 2024, einen Monat nach der Einführung von ToxMod, wurden 80 % der Spieler, die eine Strafe erhalten hatten, nicht erneut straffällig.
Laut Insider Gaming ist ToxMod so intelligent, dass es zwischen einem freundlichen Scherz und einer echten Beleidigung unterscheiden kann, indem es den Tonfall und die Stimmung dessen, was jemand sagt, analysiert. Es ist auch intelligent genug, um die Ernsthaftigkeit eines Kommentars anhand der Reaktionen anderer Nutzer zu bestimmen.
Quelle: insider-gaming