¿Tú también nos sigues?
Call of Duty implementará IA para moderar chats de voz
Activision, la empresa detrás de la famosa franquicia de videojuegos Call of Duty, ha anunciado que utilizará una herramienta basada en inteligencia artificial para moderar en tiempo real las conversaciones de juego. La tecnología, proporcionada por Modulate, analizará las conversaciones en busca de violaciones habladas del código de conducta del juego.
Publicado: 2023-09-01 00:00
Uno de los mayores problemas en Call of Duty son los jugadores tóxicos. Aunque existen mecanismos para reportarlos o silenciarlos, estas medidas no siempre son efectivas. Por esta razón, Activision comenzó a probar una herramienta que utiliza inteligencia artificial para combatir el comportamiento abusivo. En una publicación en el blog de Call of Duty, Activision anunció que implementará un nuevo sistema de moderación de chat de voz en tiempo real a gran escala. La empresa utilizará ToxMod, una herramienta desarrollada por Modulate que emplea inteligencia artificial para identificar lenguaje discriminatorio, discurso de odio, acoso y otros comportamientos tóxicos.
ToxMod funciona en tres etapas: primero, clasifica y procesa los datos de un chat de voz para determinar si la conversación requiere atención. Si cumple con ciertos parámetros, el sistema procederá a analizar el tono, contexto y emoción percibida para determinar el tipo de comportamiento. Esto se logra mediante modelos de aprendizaje automático que, según Modulate, comprenden señales emocionales y matizadas para diferenciar entre una broma y una mala conducta. “Estos modelos de clasificación no pueden entender todo sobre una conversación a primera vista, pero pueden buscar signos reveladores de ira, angustia, agresión e incluso intenciones siniestras más sutiles”, menciona Modulate en uno de sus documentos.
Finalmente, la herramienta puede escalar los chats de voz más tóxicos para que los moderadores tomen las medidas adecuadas. Call of Duty combatirá la toxicidad en todos los idiomas ToxMod entiende 18 idiomas, incluido el español, y puede comprender el contexto completo de una conversación entre dos o más idiomas. Esto es importante ya que es común escuchar a personas proferir insultos racistas en un idioma distinto al inglés en Call of Duty. Modulate utiliza modelos de lenguaje, inteligencia artificial y expertos humanos que dominan cada idioma nativamente y pueden identificar ciertas acciones nocivas.
“La lucha contra el comportamiento tóxico tiene más matices y requiere fluidez en un idioma y la cultura del país de origen del idioma, así como la subcultura y la psicología de los juegos y el comportamiento en línea en general”, menciona la empresa. En una publicación anterior, Modulate menciona que ToxMod detecta categorías específicas de riesgo como radicalización violenta o acoso infantil. Esto es posible gracias a algoritmos de detección que identifican patrones repetidos de comportamiento. Por ejemplo, si un jugador usa lenguaje extremista en una ocasión se clasifica como ofensa; pero si lo repite o lo intensifica a lo largo de varias semanas se agrega a una categoría de riesgo para que los moderadores lo evalúen.
△
¿Te gustó esta publicación? Tú también puedes compartirla:
Fuentes: