Roblox ya utiliza IA para moderar los chats de voz, pero la decisión final la siguen tomando los humanos

Por: Dmitro Koval | 24.03.2025, 08:13
Roblox: Un juego creado por los propios jugadores Cartel de Roblox. Fuente: TechCrunch

Cualquiera que haya jugado alguna vez a juegos online competitivos sabe lo tóxico que puede resultar el chat de voz en las partidas. A diferencia del chat de texto, en el que se tarda tiempo en escribir algo, el chat de voz se produce al instante, lo que hace muy difícil moderarlo. Para resolver este problema, Roblox está implementando activamente la inteligencia artificial (IA), pero reconoce que el control humano sigue siendo necesario para garantizar un entorno seguro para los jugadores.

Esto es lo que sabemos

Durante la Game Developers Conference (GDC ) 2025, Kiran Bhat, director de tecnología de Roblox, y Hannes Heikinheimo, responsable de seguridad del chat de voz, hablaron sobre el año de uso de la IA para la moderación. Bhat señaló que la principal dificultad radica no sólo en detectar palabras ofensivas, sino también en comprender el tono, la intensidad y el contexto que determinan si las declaraciones son realmente ofensivas.

A pesar de estos retos, la inteligencia artificial ha demostrado ser muy eficaz. Bhat explicó que el 85% de los comportamientos tóxicos se reducen a sólo cuatro categorías principales, y la mayoría de las infracciones se asocian a unas 50 palabras clave. El aprendizaje automático hace un excelente trabajo a la hora de identificar estos patrones, reduciendo significativamente el número de quejas por abusos en el chat de voz.

Sin embargo, la IA tiene sus limitaciones. Heikinigheimo subraya que, si bien los algoritmos aportan estabilidad e imparcialidad, no siempre pueden interpretar correctamente los casos raros o contextualmente complejos, en los que el juicio humano sigue siendo indispensable.

Fuente: Videogamer