La inteligencia artificial (IA) no se presenta como una tecnología neutra en contextos de conflicto. En Colombia, su integración es gradual y compleja, amplificando desigualdades preexistentes, acelerando la desinformación y reconfigurando dinámicas de violencia, a pesar de los esfuerzos por alcanzar la paz en un conflicto armado que ya supera los sesenta años. Esta situación es exacerbada por la existencia de numerosos grupos armados no estatales, economías ilegales y marcadas disparidades territoriales.
A través de cinco casos documentados por medios locales, este artículo examina cómo tecnologías de bajo costo están transformando el entramado del conflicto colombiano. Más que una simple adopción de IA, nos encontramos ante una innovación que modifica el campo de batalla, influye en el proceso de toma de decisiones, altera las narrativas locales y redefine las formas de control social.
En diversas regiones del país, desde 2024, algunos grupos armados han comenzado a utilizar drones comerciales, rudimentariamente modificados, para lanzar explosivos dirigidos contra estaciones de policía y posiciones militares. Resultados devastadores han dejado a centenares de efectivos fallecidos o heridos. Aunque estos dispositivos carecen de IA, su uso ilustra la capacidad de actores con recursos limitados para adaptar tecnologías asequibles y modificar el equilibrio táctico en su favor.
En contraste con los sistemas elaborados y producidos a gran escala empleados en conflictos como el de Ucrania, donde los drones son parte de estrategias militares más complejas, en Colombia estos aparatos representan una fase intermedia, en la que la operatividad sigue siendo predominantemente humana, aunque se vislumbra la eventual integración de herramientas algorítmicas más sofisticadas.
Como respuesta a la irrupción de drones de bajo costo, el gobierno colombiano se ha visto en la obligación de desarrollar un “escudo nacional antidrone”, una arquitectura tecnológica avanzada que reúne un conjunto diverso de capacidades. Esta iniciativa, instaurada en 2025, emplea sensores especializados que permiten distinguir drones de aves o aeronaves convencionales, tecnologías mediante micro-Doppler para identificar objetos en movimiento, sistemas de radiofrecuencia para localizar y bloquear señales de control, y mecanismos de neutralización tanto electrónicos como físicos. Este enfoque híbrido amalgama sensores, algoritmos de procesamiento de datos y decisiones humanas, redefiniendo así los métodos de detección y respuesta ante amenazas.
Las instituciones encargadas de la seguridad han comenzado a implementar herramientas de IA que permiten orientar acciones operativas basadas en análisis de datos, lo que facilita la identificación de riesgos y la anticipación de amenazas. Desde la adopción del Modelo de Servicio de Policía en 2024, se hace énfasis en un despliegue “focalizado y diferencial”, fundamentado en el análisis de datos en tiempo real para identificar los puntos críticos de criminalidad. Esta lógica se extiende igualmente al ámbito militar, donde informes de la Fuerza Aeroespacial Colombiana destacan la utilización de sistemas de vigilancia avanzados que integran sensores y procesamiento de datos para construir modelos de riesgo en zonas de conflicto, permitiendo un despliegue más eficiente de recursos terrestres y aéreos.
A pesar de que estos sistemas no operan de manera autónoma, son fundamentales en la estructuración del mapa operativo. Sin embargo, en un contexto marcado por desigualdades territoriales y limitaciones en la calidad de los datos, la promesa de eficiencia en seguridad coexiste con el peligro de reproducir sesgos existentes, intensificando la vigilancia en territorios ya estigmatizados mientras otros permanecen invisibles.
En otro ámbito, en 2023, se documentó el uso emergente de IA para desinformar en contextos políticos altamente sensibles. Durante las elecciones regionales de octubre, marcadas por luchas de poder en áreas con presencia de actores armados, comenzaron a circular audios artificialmente generados con las voces de los candidatos, utilizados para socavar o promocionar sus campañas. Adicionalmente, en noviembre de ese año, se compartieron videos con avatares generados por IA que simulaban ser un médico, un paciente y un militar para convocar protestas contra el gobierno, evidenciando la capacidad de manipulación de la opinión pública y sus implicaciones en decisiones de seguridad.
Asimismo, grupos comunitarios en redes sociales, inicialmente creados para compartir alertas de seguridad, han sido cooptados por actores armados no estatales para difundir acusaciones infundadas contra líderes sociales y ciudadanos, acusándolos de colaborar con grupos rivales o el gobierno. Este fenómeno se presenta en grupos cerrados de WhatsApp, propagando mensajes intimidatorios y sin pruebas, mientras que en plataformas como Facebook proliferan perfiles falsos que replican información sesgada. Estas listas negras digitales, asociadas con amenazas, desplazamientos forzados y asesinatos selectivos, sientan las bases para un sistema de control que podría ser acelerado y automatizado mediante la IA.
Estos casos ilustran cómo la IA se introduce de manera paulatina en el conflicto armado colombiano, apoyando estructuras preexistentes de violencia y amplificando sus efectos. Se torna imperativo considerar que, más allá de la evolución hacia una guerra dominada por sistemas autónomos, el peligro más inmediato radica en que estas herramientas podrían reforzar las brechas territoriales y sociales que han perpetuado la violencia durante décadas.
Discussion Questions
- ¿De qué manera crees que la inteligencia artificial puede influir en la dinámica de un conflicto armado, y cuáles podrían ser las consecuencias a largo plazo de su integración?
- ¿Cómo afecta la desigualdad territorial y la calidad de los datos en la efectividad de las herramientas de seguridad basadas en IA en Colombia?
- ¿Qué papel juega la desinformación generada por IA en la manipulación de la opinión pública durante procesos políticos, y cómo puede afectar la democracia en un país en conflicto?
- ¿Qué implicaciones éticas surgen al utilizar tecnologías avanzadas como drones y sistemas de vigilancia en contextos de violencia, especialmente cuando se pueden reforzar disparidades existentes?
- En tu opinión, ¿cómo se puede abordar el uso de la inteligencia artificial en conflictos armados de manera que minimice su potencial de amplificar la violencia y la inequidad?