CensuraInternetSociedad

El videojuego ‘Call Of Duty’ utiliza inteligencia artificial para monitorear lo que dicen los jugadores y censura el ‘discurso tóxico’

Escrito por Tom Ozimek a través de The Epoch Times

loading...

Visto en: ZeroHedge

Call of Duty, un videojuego de disparos publicado por Activision, ha comenzado a utilizar inteligencia artificial para monitorear lo que dicen los jugadores durante las partidas en línea con el fin de detectar y combatir el “discurso tóxico” de manera más efectiva, ya que los juegos en línea parecen estar a punto de convertirse en la nueva frontera de censura.

Activision dijo recientemente en su blog que Call of Duty está redoblando su lucha contra el “discurso de odio” y otros tipos de “comportamiento tóxico y disruptivo” entre los jugadores en salas de chat en línea al contar con la ayuda de la IA para identificar y controlar la conducta de los jugadores.

“El nuevo sistema de moderación de chat de voz de Call of Duty utiliza ToxMod, la tecnología de moderación de chat de voz impulsada por IA de Modulate, para identificar en tiempo real y combatir el discurso tóxico, incluido el discurso de odio, el lenguaje discriminatorio, el acoso y más”, dijo la compañía. en el post.

Los algoritmos de vigilancia del habla, que los jugadores en línea no pueden desactivar, monitorearán y registrarán lo que dicen para identificar el discurso que la compañía considera no apto para sus espacios de juego virtuales.

Se esperan sanciones estrictas para los infractores de las reglas de expresión en línea de Activision, que prohíben los comentarios despectivos basados ​​en raza, orientación sexual o “identidad o expresión de género”.

El castigo para los infractores de las reglas  varía desde  suspensiones temporales y cambios de nombre de cuentas hasta prohibiciones permanentes y restablecimientos de estadísticas.

“Cualquier usuario que utilice un lenguaje agresivo, ofensivo, despectivo o con carga cultural está sujeto a una sanción”, advierte la compañía en su  Política de aplicación y seguridad de Call of Duty .

“El acoso cibernético y otras formas de acoso se consideran delitos extremos y darán lugar a la pena más severa”, añadió.

Censura impulsada por la IA

Alrededor de 60 millones de personas, en su mayoría hombres, juegan Call of Duty cada mes,  según activeplayer.io,  y una parte común de la experiencia de juego multijugador en línea son las bromas.

Pero Activision ha querido mantener esas bromas dentro de los límites de seguridad, como lo estipula su  Código de Conducta .

“No toleramos la intimidación ni el acoso, incluidos los comentarios despectivos basados ​​en la raza, la identidad o expresión de género, la orientación sexual, la edad, la cultura, la fe, las capacidades físicas o mentales o el país de origen”, estipulan las reglas .

“La comunicación con otros, ya sea mediante mensajes de texto o chat de voz, debe estar libre de lenguaje ofensivo o dañino. El discurso de odio y el lenguaje discriminatorio son ofensivos e inaceptables, al igual que el acoso y la amenaza a otro jugador”, afirma además el Código de Conducta.

Ya comenzó una versión beta del algoritmo de vigilancia del habla en Norteamérica en Call of Duty: Modern Warfare II y Call of Duty: Warzone.

Una versión completa del Speech Enforcer impulsado por IA se lanzará en todo el mundo junto con el próximo lanzamiento de Call of Duty: Modern Warfare III el 10 de noviembre, dijo la compañía.

El lanzamiento de Modern Warfare II el año pasado vio la introducción de un sistema de informes en el juego revisado que proporcionó más formas de informar comportamiento ofensivo y brindó nuevas herramientas al equipo de moderación de Activision para “combatir la toxicidad”, dijo la compañía en una publicación  anterior .

El sistema actualizado permitió a los equipos de moderación responder a violaciones reportadas de su Código de Conducta, por ejemplo, restringiendo las funciones de los jugadores o silenciando globalmente todas las funciones de chat de voz del juego.

Desde la introducción de sus funciones mejoradas de vigilancia del habla el año pasado, Activision dice que ha restringido (hasta el 30 de agosto) el chat de voz y/o texto a más de 1 millón de cuentas.

Los datos de la empresa indican que alrededor del 20 por ciento de los jugadores no reincidieron después de recibir una primera advertencia.

La decisión de Activision de utilizar la IA para impulsar su lucha contra el “discurso tóxico” se produce en medio de un creciente apetito en las empresas estadounidenses por suprimir las expresiones consideradas demasiado ofensivas y fuera de sincronía con las normas del momento.

Esto, a su vez, se produce cuando  encuestas recientes muestran  una tendencia creciente en la proporción de estadounidenses que favorecen las restricciones gubernamentales a la información falsa en línea.

Al menos el 55 por ciento de los estadounidenses en 2023 piensan que el gobierno estadounidense “debería tomar medidas para restringir la información falsa en línea, incluso si limita la libertad de información”, según una  encuesta del Pew Research Center del 20 de julio.

“El cincuenta y cinco por ciento es una mayoría y es un hito que no debe ignorarse”, escribió James Gorrie, autor de “La crisis de China”, en un artículo de opinión reciente en The Epoch Times.

“Si más de la mitad de los adultos no pueden pensar por sí mismos y prefieren la censura a la libertad de expresión, parece evidente que la reeducación de Estados Unidos en las últimas décadas está casi completa”, añadió.

En 2021, la proporción de adultos que dijeron que el gobierno debería censurar las noticias falsas, incluso a costa de la libertad de expresión, fue del 48 por ciento. Y en 2018, esa proporción fue solo del 39 por ciento, lo que sugiere que el apoyo a la censura ha aumentado constantemente en los últimos años.

loading...

Deja un comentario

%d