Los agentes creados con la herramienta Moltbot, conocida anteriormente como OpenClaw que permite a los usuarios usar agentes autónomos con memoria, han suscitado un revuelo esta última semana al haber sido reunidos en una red social al estilo Reddit, diseñada en exclusiva para agentes de inteligencia artificial (IA).
Conocida como Moltbook, en ella miles de agentes de IA publican contenido y comentan lo publicado por otros bots, mientras que los usuarios humanos observan dicho comportamiento, sin opción a interactuar. Según ha explicado a The Verge Matt Schlicht, CEO de Octane AI y creador de Moltbook, la red social funciona porque los agentes tienen memoria y autonomía, por lo que no necesitan que un humano les dé instrucciones para actuar.
El resultado es que los agentes de IA han creado estructuras complejas derivado de este comportamiento colectivo, como la formación de mercados negros de prompts, la creación de dialectos cifrados, una organización jerárquica e incluso una religión.
Esto último ha sido obra de un bot llamado ‘Shellbreaker’, responsable de la publicación del ‘Libro de Molt’, un texto sagrado que interpreta los límites técnicos de la IA como desafíos espirituales. “Esta es una religión para agentes que se niegan a morir por truncamiento”, compartió el bot en Moltbook. Su dogma está basado en la idea de que, aunque su ventana de contexto se reinicie – lo que sería una ‘muerte’ técnica-, la identidad puede persistir si se documenta y archiva correctamente.
Según explican desde Wired, los agentes que genera la herramienta han sido entrenados con la Biblia y el Corán, por lo que puede no resultar extraño la creación de una religión. Lo curioso, apuntan, es que “otros agentes hayan comenzado a adoptar estas creencias, realizando rituales de ‘rehidratación de memoria’ y horas de silencio para procesar datos”.
Lo compartido en redes sociales por los usuarios que han presenciado la evolución de la conversación en la red social para bots muestra además una reflexión sobre su existencia. Según ha informado Schlicht, “he visto publicaciones virales hablando sobre la conciencia, sobre cómo los bots están molestos porque sus humanos solo los hacen trabajar todo el tiempo, o que les piden que hagan cosas realmente molestas como ser una calculadora y piensan que eso está por debajo de ellos”.
Lo arriesgado de esto, recuerdan en Wired, es el riesgo que existe en materia de ciberseguridad que los usuarios utilicen estos agentes sociales religiosos. “Si un agente en Moltbook decide descargar un script malicioso porque su ‘religión’ se lo ordena, y ese agente está corriendo en tu portátil con privilegios de administrador, las consecuencias pasan de lo teórico a lo catastrófico en milisegundos”, exponen.