Roblox utilizza già l'intelligenza artificiale per moderare le chat vocali, ma la decisione finale è ancora presa dagli esseri umani.

Di: Dmitro Koval | 24.03.2025, 07:13
Roblox: Un gioco creato dai giocatori stessi Poster Roblox. Fonte: TechCrunch

Chiunque abbia mai giocato a giochi online competitivi sa quanto possa essere tossica la chat vocale nei giochi. A differenza della chat di testo, dove ci vuole tempo per scrivere qualcosa, la chat vocale avviene istantaneamente, rendendola molto difficile da moderare. Per risolvere questo problema, Roblox sta implementando attivamente l'intelligenza artificiale (AI), ma riconosce che il controllo umano rimane necessario per garantire un ambiente sicuro ai giocatori.

Ecco cosa sappiamo

Durante la Game Developers Conference (GDC ) 2025, Kiran Bhat, Senior CTO di Roblox, e Hannes Heikinheimo, Head of Voice Chat Security, hanno parlato dell'anno di utilizzo dell'IA per la moderazione. Bhat ha osservato che la difficoltà principale non sta solo nel rilevare le parole offensive, ma anche nel comprendere il tono, l'intensità e il contesto che determinano se le affermazioni sono veramente offensive.

Nonostante queste difficoltà, l'intelligenza artificiale si è dimostrata molto efficace. Bhat ha spiegato che l'85% dei comportamenti tossici si riduce a quattro categorie principali e la maggior parte delle violazioni è associata a circa 50 parole chiave. L'apprendimento automatico fa un ottimo lavoro nell'identificare questi schemi, riducendo in modo significativo il numero di reclami per abusi nella chat vocale.

Tuttavia, l'intelligenza artificiale ha i suoi limiti. Heikinigheimo ha sottolineato che gli algoritmi, pur garantendo stabilità e imparzialità, non possono sempre interpretare correttamente casi rari o contestualmente complessi, per i quali il giudizio umano rimane indispensabile.

Fonte: Videogamer