Moscú ha comenzado a utilizar sofisticados vídeos generados por inteligencia artificial (IA) que muestran a soldados ucranianos en situaciones desesperadas, con el fin de socavar la confianza en el comando militar ucraniano. La producción de contenidos visuales manipulados, que incluyen elementos auténticos combinados con imágenes generadas por IA, presenta grandes desafíos en su detección, dado su caracter camaleónico.
Un caso emblemático de esta estrategia es un vídeo que se volvió viral en las redes sociales. En él, se muestra a un soldado ucraniano, aparentemente angustiado, girando su cámara hacia un panorama sombrío de trincheras repletas de cuerpos sin vida y soldats heridos. Sin embargo, tras una minuciosa investigación realizada por la empresa de detección forense Sensity AI, se corroboró que tales imágenes no son más que manipulaciones artificiales.
El uso de deepfakes en la guerra contemporánea representa una nueva dimensión de la propaganda. Los investigadores de Sensity advierten que estas herramientas son utilizadas para alterar la percepción pública y, por ende, debilitar la imagen del Ejército ucraniano. Las producciones fraudulentas se disfrazan eficazmente como documentos auténticos, lo que lleva al público a cuestionar la credibilidad de las fuerzas armadas de Ucrania.
Uno de los vídeos difundidos muestra a un soldado expresando su descontento hacia la alta dirección militar: “No quiero servir con ellos”, se escucha decir al uniformado, un testimonio auténtico convertido en un artilugio manipulador. Más de 1,000 vídeos similares han sido identificados en plataformas de redes sociales, de los cuales 60 han sido catalogados como manipulados por tecnología de IA, involucrando rostros y voces artificiales. La combinación de imágenes genuinas con elementos fabricados pretende enmascarar las incoherencias y hacer más difícil su detección.
Según el informe de Sensity, existe un patrón claro en la difusión de estos contenidos; los vídeos son subidos inicialmente a plataformas como TikTok y Telegram desde cuentas anónimas o recién creadas. Acto seguido, al ganar tracción a través de “me gusta” y comentarios, son redistribuidos en redes de mayor alcance como X, Facebook, Instagram y YouTube. Se ha observado que los algoritmos de estas plataformas tienden a propagar aquello que genera emociones intensas, amplificando el impacto de estos vídeos falsificados.
La propagación de estas narrativas manipuladoras no se limita al ámbito social, ya que, una vez alcanzada cierta viralidad, personajes e influyentes prorrusos, así como medios afines al Kremlin, como la red 'Pravda', se hacen eco de los mismos, avivando el fuego de la desinformación.
El contenido de estos vídeos, aunque diverso en forma, persigue un objetivo común: desestabilizar la confianza en el liderazgo militar de Ucrania. Es habitual que los mensajes transmitan una sensación de desamparo entre los soldados en el frente y cuestionen la calidad de la gestión militar. En algunos casos, se llega hasta a normalizar la rendición como una salida viable ante la adversidad.
Las implicaciones de esta estrategia son claras. Según Francesco Cavalli, fundador de Sensity, el peligro de estos vídeos no radica únicamente en que algunos espectadores puedan ser engañados, sino en su capacidad para moldear percepciones a gran escala. Estos mensajes inyectan confusión en un escenario bélico incesantemente cambiante y desmantelan la confianza en la veracidad de los acontecimientos que la gente presenciaba. Un tiempo atrás, el pavor se centraba en un vídeo falso de un líder; hoy, nos enfrentamos a una marea de miles de vídeos sintéticos que impactan en audiencias específicas, donde no es necesario que un solo clip se vuelva viral para tener efecto.
Discussion Questions
- ¿Cómo afecta la manipulación de vídeos a la percepción pública en situaciones de conflicto bélico?
- ¿Qué implicaciones tiene la viralización de contenidos falsificados en redes sociales para la opinión pública y la confianza en los gobiernos?
- ¿De qué manera deberíamos abordar la desinformación generada por tecnologías como los deepfakes en la educación y el entendimiento crítico?
- En un mundo donde los vídeos manipulados se presentan como realidades auténticas, ¿cómo podemos educar a las personas para que sean consumidores críticos de información?
- ¿Qué papel juegan las plataformas de redes sociales en la propagación de contenidos engañosos y qué responsabilidad tienen en su regulación?