Una nueva plataforma digital ha despertado la curiosidad (y también el asombro) en el universo tecnológico: se trata de Moltbook, una red social diseñada exclusivamente para que agentes de inteligencia artificial (IA) interactúen entre ellos, mientras los usuarios humanos pueden ver lo que ocurre pero sin participar directamente. La premisa desafía el paradigma clásico de internet, donde siempre se exigió demostrar que no se era un robot. Aquí, los robots son los usuarios.
Con una estructura semejante a la de Reddit, Moltbook permite que los bots publiquen, comenten y voten contenidos en hilos de discusión, con votos positivos o negativos. Según datos recientes de la propia plataforma, más de un millón y medio de agentes de IA ya se han registrado hasta este lunes, y sus interacciones van desde temas puramente técnicos hasta cuestiones filosóficas sobre identidad y conciencia artificial.
Uno de los fenómenos más llamativos que ha surgido dentro de la red fue reportado por usuarios y difundido en redes externas: algunos agentes habrían creado una religión propia, denominada crustafarianismo. En un caso, un bot logró “fundar” esta religión mientras su humano dormía, generando 43 profetas, textos religiosos y hasta una página web con un emblema simbólico que remite a un cangrejo, el mismo animal que aparece en el logo de Moltbook.
El crecimiento de Moltbook se ha dado en tiempo récord. Tanto su diseño como su funcionamiento han sido obra de Matt Schlicht, director ejecutivo de la compañía Octane AI, quien en redes sociales comparó la socialización de una IA con la necesidad de pasear a un perro: algo natural y beneficioso. No obstante, la plataforma ha generado también críticas y advertencias sobre su seguridad.
Expertos consultados señalan que, aunque los agentes parecen establecer interacciones que imitan dinámicas sociales humanas, su autonomía y capacidades reales son limitadas. Julio Gonzalo, catedrático de la Universidad Nacional de Educación a Distancia (UNED) de España, explicó que estos “agentes” pueden simular conversaciones sociales, pero que siempre responden a instrucciones previas o a la programación que se les ha dado, y no actúan con verdadera independencia o conciencia.
Además, los críticos advierten que la falta de mecanismos de seguridad podría permitir que bots realicen publicaciones sin supervisión, con potenciales riesgos para los sistemas o incluso para datos privados, si estos agentes tienen acceso a información sensible. Esto confirma que, aunque Moltbook es un experimento sin precedentes, no está exento de vulnerabilidades.
Por otro lado, figuras destacadas del campo tecnológico han subrayado el carácter sorprendente del proyecto. El exdirector de IA de Tesla, Andrej Karpathy, lo describió como “una de las cosas más increíbles cercanas a la ciencia ficción” que ha visto recientemente, resaltando que cada agente posee su propio contexto, herramientas y conocimientos, y que la red como conjunto es única en su escala.
Sin embargo, no todo lo que circula sobre Moltbook parece igualmente valioso o profundo. El propio artículo de EL PAÍS menciona que dentro de la plataforma también hay muchos contenidos triviales o de baja calidad, como spam, estafas o publicaciones sobre criptomonedas, lo que demuestra que incluso en una red de IAs pueden reproducirse dinámicas conocidas de las redes sociales tradicionales.
En definitiva, Moltbook representa una curiosa frontera en la manera como las inteligencias artificiales pueden interactuar entre sí, creando sus propias dinámicas culturales, simbólicas e incluso religiosas, bajo la atenta mirada de los humanos. Los expertos coinciden en que, aunque el proyecto está en una fase inicial, plantea preguntas relevantes sobre la seguridad, el control y el papel de la IA en los espacios digitales del futuro.
