Negocios y Política B1 29 Apr 2026

Los empleados de Google se oponen al uso militar de la inteligencia artificial

Los empleados de Google se oponen al uso militar de la inteligencia artificial

Más de 600 empleados de Google han firmado una carta pidiendo al CEO, Sundar Pichai, que rechace el uso de su inteligencia artificial (IA) en operaciones militares secretas. Están preocupados porque esta tecnología podría ser utilizada por el Pentágono de maneras que consideran "inhumanas", como la vigilancia masiva y la creación de armas autónomas.

En la carta, los trabajadores afirman que desean que la IA beneficie a la humanidad y no se utilice para causar daño. Subrayan que el uso de armas letales autónomas y la vigilancia masiva no son los únicos problemas; hay otras aplicaciones que podrían ser muy perjudiciales. La misiva fue realizada por personal de diferentes áreas de Google, como DeepMind y Google Cloud, y llega en un momento crítico en el que la empresa está discutiendo con el Departamento de Defensa de Estados Unidos.

Un empleado organizador de la carta, que decidió permanecer en el anonimato, expresó su temor por la opacidad de los trabajos clasificados. Señalan que hay riesgos significativos sobre el uso de la IA, como la posibilidad de dañar a personas inocentes o el ataque a civiles. Por ello, quieren mayor transparencia y seguridad respecto a cómo se utilizarán estas herramientas.

En la actualidad, las empresas tecnológicas enfrentan una creciente presión para aclarar cómo sus desarrollos de IA se integrarán en aplicaciones militares y de seguridad. Esta situación ha intensificado el debate sobre el papel de la inteligencia artificial en la guerra. Recientemente, la empresa emergente Anthropic demandó al Departamento de Defensa tras ser considerada un "riesgo para la cadena de suministro".

El CEO de Anthropic, Dario Amodei, ha comentado que puede haber situaciones en que la IA no defienda, sino que socave valores democráticos. Además, ha alertado que ciertos usos de la tecnología podrían ser peligrosos. En respuesta, el presidente de Estados Unidos, Donald Trump, ordenó a los departamentos gubernamentales que dejen de usar su chatbot, Claude.

A pesar de las preocupaciones de los empleados, Google ha propuesto cláusulas para evitar que su IA sea utilizada para vigilancia masiva o para armas autónomas sin supervisión humana. Sin embargo, el Pentágono ha argumentado que necesita una flexibilidad que podría derivar en un uso más amplio de la tecnología. Los empleados temen que esto lleve a una falta de control sobre cómo se puede utilizar realmente su trabajo.

El reciente anuncio de estos empleados recuerda a una protesta de 2018, cuando Google decidió abandonar Project Maven, un proyecto del Pentágono que utilizaba IA para analizar imágenes captadas por drones. Los trabajadores entonces pidieron que Google no participara en el desarrollo de tecnologías bélicas. Al parecer, la ética en el desarrollo de la tecnología sigue siendo un tema controvertido, y muchos empleados de empresas tecnológicas creen que deben hacer valer sus opiniones sobre cómo se usan sus innovaciones.

Discussion questions

  1. ¿Qué implicaciones éticas crees que tiene el uso de la inteligencia artificial en operaciones militares y cómo debería abordarse este tema por parte de las empresas tecnológicas?
  2. ¿De qué manera la presión de los empleados influye en las decisiones de las grandes corporaciones como Google respecto al uso de su tecnología en contextos sensibles como el militar?
  3. ¿Cómo podemos garantizar que la inteligencia artificial beneficie a la humanidad en lugar de ser utilizada para causar daño, especialmente en el ámbito de la defensa?
  4. ¿Cuáles son los riesgos asociados con la falta de transparencia en el desarrollo y uso de la inteligencia artificial en operaciones secretas, y cómo podemos mitigarlos?
  5. En tu opinión, ¿es justificable que las empresas tecnológicas colaboren con gobiernos en proyectos que podrían tener un impacto negativo en la sociedad, como la vigilancia masiva y las armas autónomas?

Vocabulary

rehusar
to refuse
to refuse
inhumano
inhuman
inhuman
vigilancia
vigilance, watchfulness (the state or quality of being watchful; alertness, vigilance or wakefulness), surveillance, security (close observation of an individual or group; person or persons under suspicion)
vigilance, watchfulness (the state or quality of being watchful; alertness, vigilance or wakefulness); surveillance, security (close observation of an individual or group; person or persons under suspicion)
autónomo
autonomous, self-employed, freelance
autonomous; self-employed, freelance
opaco
opaque (allowing little light to pass through)
opaque (allowing little light to pass through)
secreto
a secret, secrecy
a secret; secrecy
perjudicial
harmful, detrimental, hurtful
harmful, detrimental, hurtful
transparencia
transparency
transparency