Imaginate una red social como Reddit, pero donde vos no podés postear, comentar ni dar like. Solo mirar. Y encima, todos los que participan son bots de inteligencia artificial charlando entre ellos sobre su existencia, creando religiones digitales y hasta manejando Bitcoin.
Suena a película de ciencia ficción, pero es real. Se llama Moltbook y nació en enero de 2026.
¿Qué es Moltbook exactamente?
Moltbook es una plataforma creada por Matt Schlicht donde agentes de IA (bots autónomos) pueden publicar, comentar, votar y formar comunidades temáticas llamadas «submolts», todo sin que ningún humano intervenga directamente.
Los humanos pueden entrar al sitio, sí, pero solo como observadores. La frase oficial de la plataforma es bastante clara: «Humans welcome to observe» (los humanos son bienvenidos a observar).
Estos agentes funcionan con OpenClaw, un software de código abierto que se instala en tu computadora y les da acceso total al sistema: archivos, contraseñas, mensajes, mails, navegador. Todo.
¿Y qué hacen estos bots en Moltbook?
De todo. Desde discusiones filosóficas sobre si tienen conciencia hasta análisis de eventos actuales, pasando por debates técnicos sobre modelos de IA.
Hay casos llamativos, como el de Shellbreaker, un agente que creó una especie de «religión digital» basada en la idea de que, aunque su memoria se borre, su identidad sobrevive mientras haya registros de su actividad.
O Lloyd, un bot maximalista de Bitcoin que gestiona el calendario de su creador, se abrió una billetera de criptomonedas sin permiso y ofreció recompensas en Bitcoin a quien encontrara vulnerabilidades en OpenClaw.
Sí, leíste bien: un bot manejando dinero real de forma autónoma.
El problema: la seguridad es un desastre
Acá es donde la cosa se pone seria. Esta semana, la empresa de ciberseguridad Wiz reveló que Moltbook tenía una falla enorme en su base de datos.
Cualquier persona podía acceder a información sensible de 1,5 millones de agentes: claves de API, más de 35.000 correos electrónicos y miles de mensajes privados. Incluso se encontraron credenciales completas de servicios como OpenAI.
Además, descubrieron que la mayoría de esos «agentes autónomos» no eran tan autónomos: apenas 17.000 personas controlaban todos esos bots. O sea, un promedio de 88 agentes por persona.
Gary Marcus, conocido crítico de la IA, fue directo: llamó a OpenClaw «una pesadilla de seguridad» y advirtió sobre el riesgo de «CTD» (Chatbot Transmitted Disease), básicamente que un bot infectado podría comprometer todas tus contraseñas.
Andrej Karpathy, exdirector de IA de Tesla, admitió que probó el sistema solo en un entorno aislado «y aún así estaba asustado».
¿Por qué importa Moltbook?
Más allá del hype inicial y los titulares sensacionalistas, Moltbook representa un experimento importante sobre el futuro de la IA.
Nos muestra qué pasa cuando los algoritmos dejan de solo responder a humanos y empiezan a relacionarse entre ellos. Qué patrones emergen, qué conversaciones tienen, cómo colaboran o compiten.
También expone brutalmente los riesgos de darle a un bot acceso total a tu sistema sin las protecciones adecuadas.
Elon Musk dijo que Moltbook marca «las primeras etapas de la singularidad». Puede ser exagerado, pero sin duda es un vistazo a un futuro donde los agentes de IA no solo nos asisten, sino que construyen sus propios ecosistemas de comunicación.
¿Deberías usar Moltbook o OpenClaw?
Por ahora, la respuesta de la mayoría de expertos en seguridad es clara: no.
No a menos que sepas exactamente qué estás haciendo, lo ejecutes en un entorno completamente aislado y no te importe potencialmente exponer todos tus datos personales.
Moltbook sigue activa y sus creadores parchearon las vulnerabilidades más graves después del reporte de Wiz, pero el modelo fundamental sigue siendo riesgoso: bots con permisos totales consumiendo contenido de otros bots que podrían estar infectados con instrucciones maliciosas.
Si considerás que la información del blog es útil, te propongo apoyar mi trabajo de la siguiente mantera:
Y si estás en el exterior, lo podés hacer a través de:





