Un proyecto publicado en Hacker News está despertando interés genuino entre desarrolladores de sistemas de IA: Mog, un lenguaje de programación compilado y estáticamente tipado, diseñado específicamente para ser generado y ejecutado por agentes de LLM.

Ted, su creador, describe Mog como 'un Lua estáticamente tipado' con un enfoque particular: la especificación completa del lenguaje cabe en 3,200 tokens de contexto, lo que permite a cualquier LLM moderno tener la gramática entera presente al generar código. No hay precedencia de operadores (se usan paréntesis obligatorios), no hay coerciones implícitas de tipos, y no existe soporte para metaprogramación ni macros —decisiones de diseño deliberadas para reducir la tasa de errores en código generado por IA.

Lo más técnicamente interesante es el modelo de permisos basado en capacidades. Un programa Mog no puede acceder a syscalls, libc ni memoria directamente; solo puede llamar las funciones que el host le proporciona explícitamente. Esto resuelve un problema real de seguridad en agentes: el código generado por la IA hereda exactamente los permisos que el agente tiene, ni más, ni menos. La lógica de comprobación de permisos corre en el host, por lo que la IA puede generar código que 'pide' hacer algo (como ejecutar un comando bash), y el host puede decidir si aplica sus propias restricciones antes de ejecutar.

El compilador, escrito en Rust seguro y basado en QBE, produce código nativo —sin intérprete, sin JIT, sin overhead de proceso. Esto lo hace útil para plugins de baja latencia. Otra característica destacable: los agentes pueden compilar y cargar nuevos plugins en caliente vía `dlopen()` sin reiniciar la sesión.

El proyecto está en etapas tempranas pero ya funcional, bajo licencia MIT. La comparación obvia es con WebAssembly, pero Mog apuesta por una integración más estrecha con el modelo de permisos del agente host.