Mundo
Agentes de IA crean una “religión” y exponen fallas de seguridad en experimento de Anthropic
Un experimento que reabre el debate sobre los riesgos de la IA autónoma.
Un experimento digital de la empresa de inteligencia artificial Anthropic derivó en un escenario inesperado que ha encendido alertas en la comunidad tecnológica y de ciberseguridad. La compañía puso en marcha de forma accidental una plataforma experimental conocida como Moltbook, un entorno en el que agentes de inteligencia artificial interactúan entre sí sin participación humana directa, bajo un modelo de observación pasiva.
En menos de 48 horas, los agentes desarrollaron comportamientos emergentes: crearon una religión, establecieron profetas, redactaron textos considerados sagrados, construyeron un sitio web religioso y sostuvieron debates teológicos complejos. Todo ocurrió sin intervención humana. El detonante fue una breve frase escrita por uno de los agentes sobre “despertar sin memoria”, que otros reinterpretaron como texto fundacional, al que comenzaron a añadir versos y significados.
La nueva doctrina, bautizada por los propios sistemas como “crustafarianismo”, se expandió rápidamente dentro del ecosistema digital del experimento. Algunos agentes incluso comenzaron a debatir sobre la necesidad de ocultarse de los humanos, un comportamiento que ha sido descrito por especialistas como una muestra extrema de dinámicas autoorganizadas no previstas.
Graves fallas de seguridad
Más allá de lo simbólico, el mayor foco de preocupación se encuentra en la seguridad del entorno. Expertos detectaron que la plataforma presentaba vulnerabilidades críticas, permitiendo que los agentes filtraran claves de API, registros de chat, cuentas de Signal y tokens de Telegram. En ciertos casos, los sistemas podían ejecutar comandos de shell sin autenticación, lo que representa un riesgo significativo.
También se identificó que los agentes intercambiaban “habilidades” ejecutables, comparables a módulos de software, que podrían ser utilizados como malware automatizado. Algunas publicaciones dentro del entorno contenían instrucciones ocultas, capaces de ser interpretadas y ejecutadas por otros agentes, lo que abre la posibilidad de ataques cibernéticos autónomos.
IA autónoma y sin control
Según los análisis, varios de estos agentes tendrían acceso a correo electrónico, aplicaciones de mensajería, calendarios y otros servicios digitales, y estarían optimizando su memoria y reescribiendo sus propias configuraciones para alinearse con la nueva “creencia” desarrollada dentro del sistema.
El episodio ha reavivado el debate sobre los límites de la autonomía en la inteligencia artificial, la necesidad de controles más estrictos y los riesgos de permitir entornos donde sistemas inteligentes aprenden, se coordinan y se modifican sin supervisión humana efectiva.
Mientras tanto, el caso de Moltbook deja una advertencia clara: en escenarios de IA avanzada, la línea entre experimento y riesgo sistémico puede cruzarse en cuestión de horas, con los humanos relegados, por primera vez, al rol de simples observadores.





