La censura digital y la inteligencia artificial en China: el caso de DeepSeek
Las protestas de la Plaza de Tiananmén en 1989 son un evento histórico ampliamente reconocido a nivel internacional. Durante este periodo, estudiantes y ciudadanos se congregaron en la plaza para exigir reformas democráticas y combatir la corrupción. Sin embargo, la narrativa sobre este acontecimiento es cuidadosamente controlada por el gobierno chino, lo que se refleja en la forma en que las nuevas tecnologías, como el modelo de inteligencia artificial DeepSeek, abordan preguntas relacionadas con temas sensibles. Un reciente estudio revela que este chatbot, a pesar de su avanzada capacidad, evita responder preguntas con connotaciones políticas, eliminando contenido que podría ser considerado inapropiado o conflictivo.
La estructura de censura implementada por DeepSeek se compone de dos niveles. Inicialmente, el modelo intenta responder a las preguntas, pero si su contenido es considerado inaceptable por un segundo sistema de filtrado, la respuesta es eliminada y se muestra un mensaje de seguridad. Esta doble capa de censura ha suscitado críticas y análisis por parte de expertos, quienes señalan que, a diferencia de los modelos occidentales, que han logrado mecanismos de autocensura más sofisticados, DeepSeek parece estar atrapado en un sistema más rígido y menos eficiente. Esto plantea interrogantes sobre la calidad y la veracidad de la información que puede proporcionar el modelo, en un contexto donde el control sobre el discurso público es prioritario.
A pesar de las limitaciones impuestas por la censura, hay formas en que los usuarios pueden eludir estas restricciones. Por ejemplo, reformulando preguntas o utilizando idiomas distintos al inglés, se ha logrado obtener respuestas más directas sobre eventos como los de Tiananmén. Sin embargo, la fiabilidad de estas interacciones sigue siendo incierta. Los expertos advierten que, aunque DeepSeek ha logrado captar la atención por su eficacia y bajo coste en comparación con sus homólogos de Silicon Valley, las limitaciones de su sistema de censura y la posibilidad de manipulación plantean serias dudas sobre el futuro de la inteligencia artificial en contextos donde la libertad de expresión está severamente restringida.