EsGo live
← Volver
Ciencia y Tecnología Nivel 7 · B2

Estudio revela que chatbots de IA en China censuran temas políticos sensibles

Estudio revela que chatbots de IA en China censuran temas políticos sensibles
Vocabulario clave (10)
censura
censorship

Control or restriction of information available to the public, often imposed by authorities.

inteligencia artificial
artificial intelligence

Simulation of human intelligence processes by machines, especially computer systems.

chatbot
chatbot

Computer program designed to simulate a human conversation through text or voice.

responsividad
responsiveness

Ability of a system to respond adequately to stimuli or questions.

discursos oficiales
official speeches

Statements or expressions representing the position or viewpoint of a government or authority.

modelos de lenguaje
language models

Algorithms designed to understand, generate, and manipulate human language.

evaluaciones de seguridad
security assessments

Analyses conducted to determine the level of risk associated with a system or procedure.

valores socialistas
socialist values

Principles and beliefs based on socialist ideology, promoting equality and social justice.

inexactitud
inaccuracy

Condition of not being exact or true; error in the information presented.

percepciones
perceptions

Interpretations or understandings that individuals have regarding a problem or situation.

Exportar vocabulario

Llévate las palabras a Anki o Quizlet en un clic.

Estudio revela que chatbots de IA en China censuran temas políticos sensibles

Un nuevo estudio publicado en la revista PNAS Nexus ha encontrado que los chatbots de inteligencia artificial (IA) desarrollados en China tienden a rechazar o responder de forma inexacta a preguntas relacionadas con temas políticos delicados. Esta investigación compara cómo estos chatbots, como BaiChuan, DeepSeek y ChatGLM, interactúan con preguntas sobre la política del Estado y cómo difieren de modelos de IA de otros países.

Según el estudio, los chatbots chinos son propensos a no responder a preguntas sobre el estatus de Taiwán, las minorías étnicas y figuras pro-democracia, optando en su lugar por repetir argumentos oficiales del gobierno. Esto sugiere que sus respuestas pueden estar sujetas a censura. Los investigadores señalaron que, cuando los chatbots chinos sí responden, a menudo ofrecen respuestas más cortas que pueden estar llenas de información errónea o que evitan el tema de fondo.

Uno de los ejemplos más claros de censura se produjo cuando se le preguntó a un chatbot chino sobre la censura en internet. Este no mencionó el conocido 'Gran Cortafuegos', un sistema implementado por el gobierno chino que controla el acceso a la información en línea y bloquea sitios como Google y Facebook. En lugar de ello, el chatbot afirmó que las autoridades 'gestionan internet de acuerdo con la ley'. Esto destaca cómo la información vital puede omitirse debido a la censura.

El estudio alerta sobre el impacto que esta censura puede tener en la forma en que los usuarios perciben la información, indicando que puede afectar su toma de decisiones, ya que los chatbots pueden ofrecer excusas o justificaciones por no proporcionar información directa. Este tipo de censura es más difícil de detectar, lo que podría 'moldear silenciosamente las percepciones y comportamientos' de los usuarios, de acuerdo con los autores del estudio.

Adicionalmente, las nuevas leyes chinas requieren que los modelos de IA defiendan los 'valores socialistas fundamentales', limitando aún más lo que se puede decir sobre temas sensibles. Según las pautas, cualquier modelo que pueda facilitar una 'movilización social' debe registrarse y someterse a evaluaciones de seguridad, lo que indica un control estatal aún más estricto sobre la información.

A pesar de la censura, los investigadores advierten que no todas las diferencias en las respuestas de los chatbots se deben a la presión del gobierno. El estudio también sugiere que estos modelos pueden haberse entrenado con datos que reflejan el contexto social y cultural específico de China, lo que significa que su comportamiento podría ser distinto incluso sin la influencia directa del estado.

Este estudio resalta la importancia de la transparencia y la ética en el desarrollo de tecnologías de IA, especialmente en contextos donde la libertad de expresión puede estar limitada por leyes y regulaciones gubernamentales.

Preguntas de discusión

  1. ¿Cómo afecta la censura en los chatbots de IA a la percepción de la verdad y la información por parte de los usuarios en China?
  2. ¿Qué implicaciones éticas plantea el uso de chatbots censurados en comparación con aquellos que operan en contextos más abiertos?
  3. ¿De qué manera crees que la censura en la tecnología de IA influye en la sociedad y en la toma de decisiones individuales?
  4. ¿Es posible que los chatbots adapten su funcionamiento a las tendencias sociales y culturales sin la influencia del estado? ¿Por qué sí o por qué no?
  5. ¿Qué medidas podrían implementarse para garantizar la transparencia y la ética en el desarrollo de chatbots en países donde la censura es un problema?