Un reciente estudio publicado en la revista Frontiers in Psychology ha puesto de manifiesto cómo los grupos extremistas están aprovechando la popularidad de los videojuegos para reclutar y radicalizar a usuarios impresionables. La investigación, realizada por los doctores William Allchorn y Elisa Orofino, becarios de investigación en el Instituto de Investigación en Policía Internacional y Protección Pública de la Universidad de Anglia Ruskin, se basa en entrevistas a moderadores de contenido, expertos de la industria tecnológica y personas involucradas en la prevención y contrarresto del extremismo violento.
Los hallazgos indican que las plataformas asociadas a los videojuegos, que permiten a los usuarios chatear y hacer transmisiones en vivo mientras juegan, se están utilizando como «parques infantiles digitales» para actividades extremistas. A través de estas plataformas, se observa un proceso de «canalización» deliberado de jugadores por parte de extremistas desde las redes sociales convencionales hacia estos sitios, en parte debido a las dificultades que enfrentan para moderar el contenido en ellos.
El auge del extremismo de derecha en plataformas de videojuegos
El estudio revela que el extremismo de derecha es la ideología más común en estas plataformas de videojuegos. Esto incluye contenido que promueve la supremacía blanca, el neofascismo y el antisemitismo, a menudo acompañado de misoginia, racismo, homofobia y teorías de conspiración, como las asociadas a QAnon. Aunque el extremismo islamista también se reporta, es menos frecuente y se presenta junto a material «adyacente al extremismo», como la glorificación de tiroteos en escuelas, contenido que viola los términos de servicio de las plataformas principales, pero que a menudo elude la detección.
Los investigadores enfatizan que los títulos de videojuegos con una estética hipermasculina, como los juegos de disparos en primera persona, tienen un atractivo particular para los extremistas. La naturaleza única de los videojuegos en línea permite que extraños con intereses comunes se reúnan, y tras el contacto inicial, las interacciones suelen trasladarse a plataformas menos reguladas, donde los extremistas pueden socializar, compartir propaganda y reclutar de forma sutil.
Un participante del estudio explicó cómo puede comenzar el proceso de «grooming»: «Eso es donde tienes emparejamiento. Es donde puedes construir rápidamente una relación con las personas. Pero eso es algo que se traslada muy rápido a plataformas adyacentes, donde hay menos control». Este fenómeno es especialmente preocupante en el contexto de usuarios más jóvenes, quienes pueden verse influenciados por «influencers» extremistas que combinan la transmisión de juegos en vivo con narrativas radicales.
Los moderadores que participaron en la investigación expresaron su frustración ante las políticas de aplicación inconsistentes en sus plataformas y la carga que implica decidir si el contenido o los usuarios deben ser reportados a las agencias de aplicación de la ley. El chat dentro del juego no está moderado, pero los moderadores aún se sienten abrumados por la cantidad y complejidad del contenido dañino, que a menudo incluye el uso de símbolos ocultos para eludir palabras prohibidas.
Las herramientas de inteligencia artificial están siendo utilizadas para ayudar con la moderación, pero enfrentan dificultades para interpretar memes o cuando el lenguaje es ambiguo o sarcástico. Frases como «te voy a matar» pueden ser comunes en el contexto de los juegos, pero son difíciles de interpretar para los sistemas automatizados.
El coautor del estudio, Dr. William Allchorn, subrayó que «estas plataformas asociadas a los videojuegos ofrecen a los extremistas acceso directo a audiencias amplias, a menudo jóvenes e impresionables, y se han convertido en una herramienta clave para el reclutamiento extremista». A pesar de que las plataformas de redes sociales han atraído la mayor parte de la atención de los legisladores y reguladores en la última década, estas plataformas han pasado en gran medida desapercibidas, mientras se convierten en espacios digitales donde los extremistas pueden operar con libertad.
La investigación destaca la falta generalizada de herramientas efectivas de detección y reporte. Muchos usuarios no saben cómo reportar contenido extremista, y aun cuando lo hacen, a menudo sienten que sus preocupaciones no son tomadas en serio. Por tanto, se hace necesario fortalecer los sistemas de moderación, tanto con inteligencia artificial como con recursos humanos, así como actualizar las políticas de las plataformas para abordar contenido que, aunque dañino, es técnicamente legal.
