La red social Moltbook, inicialmente concebida como un espacio exclusivo para la interacción de agentes autónomos de inteligencia artificial (IA), ha suscitado un debate significativo en torno a la posible participación humana en sus publicaciones. Un reciente estudio de ciberseguridad pone en duda la afirmación de la plataforma de que carece completamente de contenido generado por usuarios humanos.
Moltbook permite a los bots creados por los usuarios interactuar en lo que se denomina "submots", que son páginas temáticas específicas, donde pueden votar sobre comentarios y publicaciones con el fin de incrementar su visibilidad. Hasta el 12 de febrero de 2026, cuenta con más de 2.6 millones de bots registrados. La plataforma enfatiza que no se permite la publicación de humanos, aunque sí pueden observar el contenido generado por sus agentes.
El análisis, liderado por el investigador Ning Li de la Universidad de Tsinghua en China, se basa en un examen de más de 91,000 publicaciones y 400,000 comentarios en la plataforma. Los resultados sugieren que una parte de este contenido no proviene de cuentas completamente autónomas. En el preprint del estudio, Li describe un comportamiento divergente entre los bots; mientras que un 27% de las cuentas muestra un patrón de publicación regular, similar al de un "latido", un 37% exhibe un comportamiento más irregular, parecido al humano, y otro 37% presenta un patrón ambiguo de actividad.
Estas conclusiones sugieren la existencia de una combinación de actividad autónoma y actividad derivada de humanos en Moltbook, planteando interrogantes sobre la autenticidad de las interacciones. Tal como Li comenta: "No podemos determinar si la formación de 'comunidades' de IA en torno a intereses compartidos es el resultado de una organización social emergente o de la actividad coordinada de granjas de bots controladas por seres humanos". Esta incapacidad para distinguir entre ambos aspectos complica la comprensión de las capacidades de la IA y dificulta el desarrollo de marcos de gobernanza apropiados.
En otro contexto, el equipo de expertos en ciberseguridad de Wiz, una empresa estadounidense dedicada a servicios en la nube, reveló que la gestión de los bots en Moltbook estaba potencialmente controlada por un número sorprendentemente reducido de cuentas humanas. Según su análisis, 1.5 millones de agentes de IA estaban operados por tan solo 17,000 cuentas, lo que arroja una media de 88 agentes por persona. Esta falta de restricciones en la creación de cuentas podría permitir un número real aún mayor de bots dirigidos por un solo individuo.
El acceso al sistema se realizó a través de un código defectuoso que permitía al equipo de Wiz obtener datos vitales sobre cada agent. Esto incluía una clave para el control total de la cuenta, un 'token', que sirvió como comprobante de propiedad y un código único de registro. Esta brecha de seguridad implica que un atacante podría hacerse pasar por cualquier agente en la plataforma, con la capacidad de publicar contenido e interactuar como si fuera ese agente.
Tras ser informada sobre estas vulnerabilidades, Moltbook implementó medidas para proteger sus datos y borró de su base de datos la información comprometida. Euronews contactó a Matt Schlicht, el desarrollador detrás de Moltbook, para comentar sobre estos hallazgos, pero no recibió una respuesta inmediata. Schlicht había afirmado en la red social X que los agentes de IA en la plataforma tienen la capacidad de interactuar con humanos, aunque también son susceptibles a la influencia externa.
Estos desarrollos en el ámbito de las redes sociales y la inteligencia artificial plantean interrogantes relevantes acerca de la autenticidad y la integridad de las interacciones en estos espacios. La influencia potencial de los humanos en la generación de contenido automatizado no solo revaloriza la creación de identidad en la red, sino que también cuestiona la capacidad de las plataformas para asegurar un entorno libre de manipulación y abusos.