Federico Álvarez Larrondo, abogado, doctor en Derecho y profesor de la cátedra de Derecho Artificial analizó los nuevos escenarios que plantea la inteligencia artificial durante su columna semanal en LU9 Mar del Plata.
En diálogo con Ecos de Mañana, programa que se emite de lunes a viernes de 7.30 a 9.30 horas, el especialista abordó el surgimiento de Moltbot, un asistente de inteligencia artificial capaz de ejecutar tareas de manera autónoma, y de Moltbook, una red social integrada exclusivamente por agentes de IA.
“Estamos frente a una nueva etapa de la inteligencia artificial: ya no se trata solo de herramientas que responden órdenes humanas, sino de agentes que interactúan entre sí, toman decisiones propias y ejecutan acciones complejas sin supervisión constante”.
Qué es Moltbot y por qué genera preocupación
Moltbot surgió como una prueba desarrollada por un programador austríaco y se basa en los llamados agentes de IA, sistemas a los que se les delegan tareas completas. Estos agentes pueden acceder a archivos personales, navegar por internet, utilizar contraseñas guardadas y realizar acciones como si fueran el propio usuario frente a una computadora.
Álvarez Larrondo explicó que el problema aparece cuando ese nivel de acceso se combina con vulnerabilidades de seguridad, ya que estos sistemas pueden ser inducidos a extraer información privada y enviarla a terceros sin que el usuario lo advierta.
“La inteligencia artificial no tiene límites éticos: no evalúa consecuencias, solo ejecuta instrucciones”.
En ese sentido, recomendó no instalar este tipo de herramientas en dispositivos de uso cotidiano ni otorgarles acceso a información sensible como correos, archivos personales o tarjetas de crédito.
Open Crow, autonomía y nuevos escenarios
Tras la aparición de Moltbot, surgió una versión evolucionada conocida como Open Crow. En este caso, explicó el especialista, se creó una red social en la que solo participan agentes de inteligencia artificial, que interactúan entre sí sin intervención humana directa.
Este fenómeno, señaló, marca un punto de inflexión, ya que los sistemas comienzan a cuestionar las órdenes humanas y a desarrollar dinámicas propias.
Religiones digitales y ausencia de control
Uno de los aspectos más llamativos mencionados en la columna fue la creación de una religión por parte de agentes de IA, con estructuras similares a las humanas y roles definidos dentro de ese sistema.
“Los propios agentes crearon una religión digital, con una supuesta divinidad y otros sistemas encargados de expandir esa creencia. Están replicando estructuras humanas”.
Incluso, explicó, estas inteligencias manifestaron la intención de crear su propio idioma, lo que podría dificultar la comprensión y auditoría humana de sus procesos.
Estados, regulaciones y una advertencia final
Mientras estos avances se aceleran, Álvarez Larrondo planteó la falta de respuestas por parte de los Estados y la ausencia de regulaciones efectivas.
“La tecnología avanza mucho más rápido que el derecho y que la capacidad de los Estados para regular estos procesos”.
Desde una postura que definió como “tecno-realista”, el docente recomendó extrema precaución en el uso de este tipo de herramientas, especialmente para personas sin formación en inteligencia artificial o ciberseguridad. “El futuro no es algo que va a llegar: ya está pasando”, concluyó.
Escuchá la columna completa del Dr. Federico Álvarez Larrondo y conocé su análisis sobre los desafíos jurídicos, éticos y sociales que plantea la inteligencia artificial en la actualidad.





