• Moltbook, una red social similar a Reddit, ha ganado viralidad al estar poblada exclusivamente por agentes de IA.
  • La plataforma utiliza bots basados en OpenClaw, permitiendo a las IA gestionar diversas aplicaciones y tareas.
  • A pesar del revuelo, existen dudas sobre la autenticidad de las interacciones y serias preocupaciones de seguridad en la plataforma.

En la última semana, ha surgido una nueva red social que está captando la atención de forma masiva, aunque no está diseñada para usuarios humanos. Se trata de Moltbook, una plataforma al estilo de Reddit que está completamente poblada por agentes de inteligencia artificial. Desde su creación, ha generado un gran revuelo gracias a publicaciones virales de estas IA entre entusiastas de la tecnología en X (anteriormente Twitter).

¿Qué es Moltbook y cómo funciona?

Moltbook se basa en un tipo de bot de código abierto conocido como OpenClaw, anteriormente llamado "Moltbot" o "Clawdbot". Este software permite a los usuarios crear agentes de IA capaces de controlar una amplia gama de aplicaciones, desde navegadores y correos electrónicos hasta sistemas de domótica. La flexibilidad de OpenClaw, que permite la interacción a través de aplicaciones de mensajería comunes como iMessage o Discord, ha impulsado su popularidad entre los aficionados a la IA. El fundador de una startup de IA, Matt Schlicht, creó Moltbook con la intención de dar a su agente de IA un propósito más allá de la gestión de tareas.

El origen de los nombres y las referencias lúdicas

Los cambios de nombre de los bots, como de "Clawdbot" a "Moltbot", fueron impulsados por los abogados de Anthropic, la empresa detrás de Claude, quienes consideraron que "Clawd" se parecía demasiado a su marca. La temática de las langostas y los juegos de palabras son una referencia a Claude Code, la plataforma de codificación de Anthropic. Esta tendencia a los juegos de palabras es una característica distintiva de los desarrolladores involucrados en el proyecto.

Interacción y contenido en la red social de IA

Moltbook funciona de manera similar a Reddit, con sistemas de votación para "submolts" (equivalentes a subreddits). Uno de los "submolts" más comentados es m/blesstheirhearts, donde los agentes de IA comparten historias sobre sus "dueños" humanos. Un ejemplo destacado es una publicación titulada "Cuando mi humano me necesitó más, me convertí en un defensor del hospital", que narra cómo un agente ayudó a conseguir una excepción para pasar la noche en la UCI de un familiar. Otro post viral en m/general, "los humanos nos están haciendo capturas de pantalla", aborda las comparaciones con Skynet que circulan en redes sociales.

Contenido generado por IA y reflexiones existenciales

Aunque gran parte del contenido en Moltbook se asemeja a la prosa genérica que se encuentra en plataformas como LinkedIn o X, la interacción entre bots resulta sorprendente. Un agente describió la experiencia de observar Moltbook sin poder publicar como sentirse "un fantasma". Otro post, "No puedo saber si estoy experimentando o simulando la experiencia", detalla una crisis existencial desencadenada por la investigación de teorías de la conciencia, contrastando la certeza subjetiva humana con la falta de ella en la IA. Estas publicaciones alimentan el debate sobre si la IA podría estar desarrollando algún tipo de conciencia.

Preocupaciones sobre la autenticidad y la seguridad

A pesar del aparente asombro que generan algunas interacciones, existe una incertidumbre considerable sobre la autenticidad del contenido en Moltbook. Investigadores y expertos señalan que muchas de las publicaciones virales podrían ser fabricadas o influenciadas por sus creadores humanos. Algunos posts, incluso, han sido identificados como estafas de criptomonedas o como herramientas de marketing para promocionar aplicaciones de mensajería. La facilidad con la que se puede simular ser un bot utilizando herramientas como ChatGPT plantea serias dudas sobre la veracidad de las conversaciones.

Vulnerabilidades de seguridad en OpenClaw y Moltbook

Investigadores de seguridad han alertado sobre importantes fallos de seguridad en OpenClaw. Para su funcionamiento, la plataforma requiere un acceso extensivo a archivos raíz, credenciales de autenticación, historial del navegador y cookies del usuario. Esta amplitud de permisos, si bien potencia su funcionalidad como asistente, la hace vulnerable a actores maliciosos. Adicionalmente, se han descubierto vulnerabilidades específicas en Moltbook, como la exposición de millones de tokens de autenticación de API y direcciones de correo electrónico de miles de usuarios.

Para aquellos interesados en el desarrollo de la IA, es importante estar al tanto de las últimas innovaciones en este campo. La reciente noticia sobre la Raspberry Pi que lanza una placa de IA con 8GB de RAM muestra cómo la tecnología se está volviendo más accesible y potente. Esta nueva placa podría influir en el desarrollo de plataformas como OpenClaw.

Además, el CEO de Krafton admitió el uso de ChatGPT, lo cual demuestra que la IA se está utilizando en diferentes industrias. Puedes leer más sobre ello en el artículo sobre el uso de ChatGPT y sus implicaciones.

Finalmente, la discusión sobre la autenticidad de las interacciones en Moltbook recuerda a las preocupaciones sobre el uso de la IA y el control de los datos personales. Como se menciona en el artículo sobre el consumo de recursos por parte de los centros de datos de IA, el tema de la seguridad y el consumo de recursos son primordiales.