La factura energética de ejecutar IA acaba de recibir su mayor amenaza hasta la fecha: un servidor que procesa modelos de lenguaje con luz. Lumai presentó el 28 de abril de 2026 Iris Nova, el primer sistema de computación óptica del mundo capaz de correr LLMs de miles de millones de parámetros en tiempo real, consumiendo un 90% menos de electricidad que cualquier arquitectura GPU equivalente. Si operas infraestructura de IA o decides dónde alojar tus modelos, esto te afecta directamente.

Servidor Lumai Iris Nova de computación óptica para inferencia de inteligencia artificial con fotones

Qué es Lumai Iris Nova y cómo funciona la computación óptica para IA

Lumai es una spin-off de la Universidad de Oxford fundada en 2021 y especializada en óptica de vanguardia. Su primer producto, Iris Nova, sustituye los electrones de los transistores de silicio por fotones, es decir, partículas de luz, para ejecutar las operaciones matemáticas que requieren los modelos de lenguaje. Y aquí está el truco físico que lo cambia todo: la luz no genera calor residual por fricción eléctrica. Eso elimina de golpe una de las fuentes principales de consumo energético y latencia en los chips convencionales.

El sistema utiliza un enfoque híbrido inteligente: un motor tensorial óptico (optical tensor engine) se encarga de las operaciones matriciales masivas, que son con diferencia el cuello de botella energético en la inferencia de LLMs, mientras que el control del sistema sigue corriendo en circuitos digitales. Este diseño resuelve el problema histórico que había bloqueado la computación fotónica durante décadas: implementar operaciones no lineales y de control a escala comercial.

Los números que Lumai publica son difíciles de ignorar: hasta 50 veces el rendimiento de la electrónica digital tradicional consumiendo solo el 10% de la energía de un sistema equivalente. Iris Nova está disponible hoy para evaluación por parte de hyperscalers, neo-clouds, empresas e instituciones de investigación, y es el primer producto de la familia Iris, lo que apunta a una hoja de ruta de hardware más amplia.

Por qué esto cambia la economía de la IA y el coste por token

La Agencia Internacional de la Energía proyecta que la demanda global de energía de los centros de datos se duplicará antes de 2030. La industria ya tiene nombre para este problema: The Energy Wall. En ese contexto, el lanzamiento de Iris Nova no es un ejercicio académico; es una respuesta directa al factor que está limitando el escalado de la IA más que ningún otro: el coste de ejecutarla.

El mercado de inferencia en 2026 lo confirma con datos concretos. El precio por millón de tokens puede variar hasta 6 veces entre proveedores que corren el mismo modelo, y esa diferencia tiene un nombre: eficiencia energética. Groq con sus LPUs, Cerebras con chips wafer-scale y los TPUs de Google compiten ferozmente por este mercado, pero ninguno ataca el problema desde la física fundamental. Lumai sí lo hace.

El Dr. Xianxin Guo, CEO y cofundador, lo resume sin rodeos: “A medida que la industria transita a la era de la inferencia, cruzamos simultáneamente el umbral hacia la era post-silicio.” La era de la inferencia es clave: los grandes modelos ya están entrenados. Lo que determina el coste real de la IA a partir de ahora es cuánto cuesta ejecutarlos millones de veces al día. Una reducción del 90% en consumo energético en ese punto no es una optimización marginal; es un reordenamiento de quién puede escalar y a qué precio.

¿Tienes infraestructura de IA? Esto es lo que deberías hacer ahora

Si gestionas o decides infraestructura IA, hay tres acciones concretas que tienen sentido esta semana. Primero, calcula tu coste actual por millón de tokens en inferencia; si no lo tienes claro, es el momento de calcularlo. Segundo, solicita acceso al programa de evaluación de Iris Nova en lumai.ai: es una evaluación real disponible hoy. Tercero, añade “coste energético por token” como métrica en cualquier proceso de selección de hardware o proveedor cloud que tengas abierto.

La computación óptica dejó de ser teoría el 28 de abril de 2026. ¿Tu empresa ya tiene en el radar la era post-silicio? Cuéntanos en los comentarios cómo estás gestionando el coste energético de tu infraestructura IA, o comparte este artículo con quien decide el presupuesto de GPU en tu organización.

Preguntas frecuentes sobre Lumai Iris Nova y la computación óptica para IA

¿Qué es la computación óptica para inteligencia artificial?

Es un tipo de computación que sustituye los electrones de los chips de silicio tradicionales por fotones, es decir, partículas de luz, para procesar información. Al eliminar la fricción eléctrica, reduce drásticamente el calor generado y el consumo energético, permitiendo ejecutar operaciones matemáticas como multiplicaciones de matrices a mayor velocidad y con mucha menos energía.

¿Qué es Lumai Iris Nova exactamente?

Iris Nova es el primer servidor de computación óptica del mundo diseñado específicamente para ejecutar modelos de lenguaje de gran escala (LLMs) de miles de millones de parámetros en tiempo real. Fue lanzado el 28 de abril de 2026 por Lumai, spin-off de la Universidad de Oxford fundada en 2021.

¿Cuánto menos energía consume Iris Nova respecto a una GPU?

Según los datos publicados por Lumai, Iris Nova consume hasta un 90% menos de energía que las arquitecturas GPU convencionales equivalentes, ofreciendo además hasta 50 veces más rendimiento en tareas de inferencia de modelos de lenguaje.

¿En qué se diferencia Lumai de competidores como Groq o Cerebras?

Groq y Cerebras optimizan la inferencia desde la arquitectura de chips electrónicos, mejorando el silicio convencional. Lumai ataca el problema desde la física fundamental: en lugar de optimizar electrones, los sustituye por fotones. Es un enfoque post-silicio frente a enfoques de silicio avanzado.

¿Cómo afecta Iris Nova al coste por token en inferencia IA?

El coste energético es uno de los mayores componentes del coste por token en inferencia. Una reducción del 90% en consumo eléctrico implica una reducción proporcional en ese componente, lo que puede reordenar significativamente el precio competitivo por millón de tokens, un mercado donde actualmente existe una variación de hasta 6 veces entre proveedores.

¿Está disponible Iris Nova para empresas?

Sí. Desde el 28 de abril de 2026, Iris Nova está disponible para evaluación por parte de hyperscalers, neo-clouds, empresas e instituciones de investigación a través del sitio oficial lumai.ai.