Hoy2023-09-01Internacional Microsoft Activision Call of Duty

¿Tú también nos sigues?
                                 

Logo
Exojuego

exojuego.com

Call of Duty implementará IA para moderar chats de voz


Activision, la empresa detrás de la famosa franquicia de videojuegos Call of Duty, ha anunciado que utilizará una herramienta basada en inteligencia artificial para moderar en tiempo real las conversaciones de juego. La tecnología, proporcionada por Modulate, analizará las conversaciones en busca de violaciones habladas del código de conducta del juego.


Imagen de portada

Juegoferta
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Publicado: 2023-09-01 00:00
█ █ █
█ █ █

Uno de los mayores problemas en Call of Duty son los jugadores tóxicos. Aunque existen mecanismos para reportarlos o silenciarlos, estas medidas no siempre son efectivas. Por esta razón, Activision comenzó a probar una herramienta que utiliza inteligencia artificial para combatir el comportamiento abusivo. En una publicación en el blog de Call of Duty, Activision anunció que implementará un nuevo sistema de moderación de chat de voz en tiempo real a gran escala. La empresa utilizará ToxMod, una herramienta desarrollada por Modulate que emplea inteligencia artificial para identificar lenguaje discriminatorio, discurso de odio, acoso y otros comportamientos tóxicos.



​ToxMod funciona en tres etapas: primero, clasifica y procesa los datos de un chat de voz para determinar si la conversación requiere atención. Si cumple con ciertos parámetros, el sistema procederá a analizar el tono, contexto y emoción percibida para determinar el tipo de comportamiento. Esto se logra mediante modelos de aprendizaje automático que, según Modulate, comprenden señales emocionales y matizadas para diferenciar entre una broma y una mala conducta. “Estos modelos de clasificación no pueden entender todo sobre una conversación a primera vista, pero pueden buscar signos reveladores de ira, angustia, agresión e incluso intenciones siniestras más sutiles”, menciona Modulate en uno de sus documentos.



​Finalmente, la herramienta puede escalar los chats de voz más tóxicos para que los moderadores tomen las medidas adecuadas. Call of Duty combatirá la toxicidad en todos los idiomas ToxMod entiende 18 idiomas, incluido el español, y puede comprender el contexto completo de una conversación entre dos o más idiomas. Esto es importante ya que es común escuchar a personas proferir insultos racistas en un idioma distinto al inglés en Call of Duty. Modulate utiliza modelos de lenguaje, inteligencia artificial y expertos humanos que dominan cada idioma nativamente y pueden identificar ciertas acciones nocivas.



​“La lucha contra el comportamiento tóxico tiene más matices y requiere fluidez en un idioma y la cultura del país de origen del idioma, así como la subcultura y la psicología de los juegos y el comportamiento en línea en general”, menciona la empresa. En una publicación anterior, Modulate menciona que ToxMod detecta categorías específicas de riesgo como radicalización violenta o acoso infantil. Esto es posible gracias a algoritmos de detección que identifican patrones repetidos de comportamiento. Por ejemplo, si un jugador usa lenguaje extremista en una ocasión se clasifica como ofensa; pero si lo repite o lo intensifica a lo largo de varias semanas se agrega a una categoría de riesgo para que los moderadores lo evalúen.



¿Te gustó esta publicación? Tú también puedes compartirla:
         


Fuentes:


Este sitio no utiliza cookies y no almacena datos personales. Versión beta: actualmente en pruebas y puede contener carencias o errores. En calidad de Afiliado de Amazon, obtengo ingresos por las compras adscritas que cumplen los requisitos aplicables. Exojuego no es responsable, ni tiene por qué compartir la opinión, del contenido de los artículos desarrollados por terceros. Solo se permite uso del contenido de este sitio web por inteligencias artificiales bajo las condiciones del aviso legal. Notas de prensa. Nosotros. © 2023-2024 Exojuego. Todos los derechos reservados.