En la saga Call of Duty, la guerra no solo se libra en las partidas multijugador, sino que también hay luchar contra la toxicidad en los canales de voz. Si has jugado online a los shooters FPS de Activision, sabrás de sobra que puedes encontrar con cierta facilidad gritos, insultos u ofensas hacia ti o cualquier persona. Sin embargo, parece que poco a poco esos problemas van reduciéndose gracias a un programa de inteligencia artificial que Activision ha implantado desde hace meses.
¿Recuerdas que hace un año año publicamos que Activision quería expulsar a los jugadores tóxicos de Call of Duty con una IA? Pues ya tenemos los primeros resultados tras varios meses de uso, y todo apunta a que el programa ToxMod ha logrado reducir la toxicidad en el chat de voz de Call of Duty en hasta un 43% desde enero de 2024. Por si no lo sabías, este software actúa como un moderador invisible que detecta el lenguaje ofensivo y los comportamientos inapropiados, evitando que los jugadores problemáticos reincidan en sus conductas nocivas, tal y como informan desde su blog.
La particularidad de ToxMod es que puede interpretar el tono de voz, diferenciando entre la intensidad, bromas o comentarios malintencionados. Gracias a ello, ha sido capaz de disminuir la reincidencia en un 67% de aquellos jugadores más conflictivos en Call of Duty: Modern Warfare 3 y Warzone. Activision es consciente de que se trata de un mal necesario que hay que erradicar, pues a la comunidad tampoco le gusta que una IA escuche sus conversaciones.