Un chico de 22 años sin título universitario acaba de publicar una reconstrucción funcional de la arquitectura del modelo de IA más avanzado de Anthropic — y lo hizo en menos de dos semanas usando solo papers académicos públicos.
Ese es el resumen brutal. Pero la historia real no es el modelo: es lo que implica para cada empresa que hoy paga una licencia API de Claude a precio de premium y para cada developer que todavía cree que el open-source va siempre un paso atrás.
Qué es OpenMythos y qué hizo exactamente Kye Gomez
El 19 de abril de 2026, Kye Gomez publicó en GitHub el repositorio kyegomez/OpenMythos: una reconstrucción teórica desde primeros principios de la arquitectura que, según la evidencia disponible, utiliza Claude Mythos, el modelo más potente de Anthropic. Implementado íntegramente en PyTorch, el proyecto se convirtió rápidamente en uno de los repositorios de mayor crecimiento de la historia de GitHub.
El detonante fue concreto: el 31 de marzo de 2026, Anthropic filtró accidentalmente la versión 2.1.88 del código fuente de Claude Code. La comunidad técnica global se lanzó a diseccionarlo. Gomez triangulò las señales arquitectónicas detectadas en el código y construyó su reconstrucción a partir de investigación académica pública, principalmente el concepto de Recurrent-Depth Transformer (RDT), documentado en papers como la serie Parcae (2026).
La arquitectura de OpenMythos funciona en tres etapas: un bloque Prelude de transformers estándar, un bloque recurrente central que puede ejecutar hasta max_loop_iters iteraciones, y un bloque final llamado Coda. La atención es intercambiable entre MLA (Multi-head Latent Attention, estilo DeepSeek) y GQA (Grouped Query Attention). El feed-forward usa un sparse Mixture-of-Experts (MoE) con expertos enrutados y compartidos.
El dato que te cambia la perspectiva: según el paper Parcae 2026 citado en el proyecto, un modelo de 770M parámetros con profundidad recurrente puede igualar el rendimiento de un transformer estándar de 1.3B parámetros. Eso es un ahorro computacional del ~41% en parámetros. El proyecto incluye incluso un script para entrenar el modelo de 3B parámetros sobre el dataset FineWeb-Edu — reproducible con hardware de consumo.
Para que quede claro: el repositorio no tiene afiliación oficial con Anthropic. El propio README lo aclara explícitamente.
Qué significa esto para el moat de la IA propietaria
Aquí está la pregunta que nadie en los grandes labs quiere responder en voz alta: si un solo individuo sin recursos corporativos puede aproximar la arquitectura central de un modelo de frontera en 14 días, ¿qué vale exactamente el moat arquitectónico?
Anthropic fue valorada en 61.500 millones de dólares en marzo de 2025. Una parte de esa valoración descansa sobre la premisa de que su ventaja técnica es difícil de replicar. OpenMythos no destruye esa tesis por completo — pero sí la erosiona en un frente crítico.
La hipótesis de Gomez invierte la lógica tradicional de escalar modelos: la profundidad de razonamiento de Claude Mythos no dependería del número de parámetros almacenados, sino de cuántas iteraciones se ejecutan en inferencia. Más compute dinámico, menos parámetros estáticos. Si eso es correcto, el paradigma de ‘quién tiene más parámetros gana’ está oficialmente muerto.
Pero seamos precisos sobre qué puede y qué no puede replicar OpenMythos. Lo que la filtración y los papers públicos permitieron aproximar es la estructura del modelo. Lo que permanece genuinamente propietario son tres cosas: (1) el volumen y calidad de los datos de entrenamiento, donde Anthropic lleva años de ventaja; (2) los procesos de alineación y RLHF propietarios, que definen el comportamiento real del modelo; y (3) la infraestructura de cómputo para entrenar a escala masiva. Ninguna de esas tres cosas está en el repositorio de Gomez.
La filtración de Claude Code, además, reveló detalles que van más allá de la arquitectura central: un sistema de memoria de tres capas compuesto por un archivo memory.md persistente, búsqueda activa basada en grep, y un daemon no publicado llamado Chyros para indexación continua de código. Eso también está ahora en manos de quien quiera leerlo.
Para los CEOs que hoy pagan licencias API premium de Claude, la señal es directa: la brecha entre un modelo propietario de frontera y un modelo open-source de calidad comparable puede reducirse más rápido de lo que sus proveedores les están diciendo. No mañana, pero sí en un horizonte de 12 a 24 meses que ya no parece ciencia ficción.
Para los developers, OpenMythos es un blueprint arquitectónico libre. La posibilidad concreta de entrenar modelos con razonamiento adaptativo sin pagar tarifas de API, usando hardware accesible y datasets públicos.
La narrativa más precisa no es ‘un chico replicó Claude Mythos’. Es que el conocimiento arquitectónico de frontera ya es esencialmente público, y lo que permanece propietario es más difícil — pero no imposible — de democratizar. En la era de los transformers, los papers académicos son el verdadero vector de difusión del conocimiento. Cuando un lab publica o filtra suficientes señales, un developer competente puede triangular la estructura central del modelo. Gomez lo acaba de demostrar.
¿Crees que el open-source puede cerrar realmente la brecha con los grandes labs en los próximos dos años? Déjalo en los comentarios — y comparte este artículo con ese CEO que todavía cree que su proveedor de IA tiene una ventaja insuperable.
Preguntas frecuentes sobre OpenMythos
¿Qué es OpenMythos exactamente?
OpenMythos es un proyecto open-source publicado en GitHub por el desarrollador autodidacta Kye Gomez el 19 de abril de 2026. Propone una reconstrucción teórica en PyTorch de la arquitectura que presumiblemente utiliza Claude Mythos, el modelo más avanzado de Anthropic, basándose exclusivamente en literatura académica pública.
¿OpenMythos es oficial de Anthropic?
No. El repositorio no tiene ninguna afiliación con Anthropic. El propio README del proyecto aclara explícitamente que no está endorsado ni conectado a los sistemas propietarios de la compañía.
¿Qué es un Recurrent-Depth Transformer (RDT)?
Es una arquitectura donde un bloque central de atención se ejecuta de forma recurrente durante múltiples iteraciones en inferencia, en lugar de apilar más capas o parámetros. Permite que un modelo de 770M parámetros iguale el rendimiento de uno de 1.3B parámetros convencional, según el paper Parcae 2026.
¿Por qué fue posible construir OpenMythos tan rápido?
La filtración accidental del código fuente de Claude Code el 31 de marzo de 2026 expuso señales arquitectónicas clave. Combinadas con investigación académica pública ya existente sobre RDTs y MoE, Gomez pudo triangular la estructura central del modelo en menos de dos semanas.
¿Qué partes de Claude Mythos NO replica OpenMythos?
Los datos de entrenamiento propietarios de Anthropic, los procesos de alineación y RLHF, y la infraestructura de cómputo a gran escala. Estos tres factores siguen siendo el verdadero moat diferenciador de los grandes labs.
¿Puedo entrenar OpenMythos con mi propio hardware?
El proyecto incluye un script para entrenar una versión de 3B parámetros sobre el dataset público FineWeb-Edu, diseñado para ser reproducible con hardware de consumo. Sin embargo, la calidad resultante no es comparable a un modelo entrenado con los recursos de Anthropic.
Fuentes:
— MarkTechPost: Meet OpenMythos
— GitHub: kyegomez/OpenMythos
— Medium: Anthropic’s Claude Mythos Leak
— MindStudio: Claude Code Source Leak
— Forbes: A 22-Year-Old Dropout Just Reverse-Engineered the World’s Scariest AI