Google acaba de romper el mito más caro de la IA empresarial: que necesitas una infraestructura masiva para jugar en la liga de los modelos de frontera.

El 2 de abril de 2026, Google DeepMind lanzó Gemma 4: una familia de cuatro modelos open source bajo licencia Apache 2.0 que corre IA de nivel competitivo en una sola GPU NVIDIA H100 de 80 GB. No en un clúster. No en la nube. En una sola GPU.

Si eres CEO o CTO, esto cambia el cálculo build-vs-cloud que probablemente llevas meses posponiendo. Si eres dev, es el momento de auditar cuánto le estás pagando a OpenAI o Anthropic cada mes por algo que podrías correr en tu propio hardware.

Qué es Gemma 4 y qué números lo respaldan

Gemma 4 no es un modelo, es una familia de cuatro: Gemma 4-E2B (~2B parámetros, para dispositivos edge), Gemma 4-E4B (~4B, también edge), Gemma 4-26B-A4B (arquitectura MoE con 26B parámetros totales pero solo 4B activos por inferencia) y el buque insignia, Gemma 4-31B (denso, 31B parámetros).

El número que importa: el modelo de 31B alcanzó el puesto #3 global entre modelos abiertos en LMArena, con un ELO de ~1.452. Para poner eso en perspectiva, está empatando con Kimi K2.5 (744B parámetros activos) y Z.ai GLM-5 (1 billón de parámetros). Gemma 4 lo hace con una fracción del tamaño, hasta 20 veces menor.

Más capacidades técnicas que debes conocer:

  • Contexto de 256.000 tokens: suficiente para procesar contratos completos, historiales clínicos o bases de código enteras en una sola llamada.
  • Soporte para más de 140 idiomas de forma nativa, incluyendo español con soporte robusto.
  • Multimodalidad completa desde el día uno: texto, imágenes, audio y video.
  • Function calling nativo, lo que lo hace apto para agentes de IA autónomos en producción.
  • Arquitectura híbrida 5:1 de atención local/global heredada de la investigación de Gemini 3 Pro.

El despliegue está validado en NVIDIA RTX (PCs y workstations), AMD Instinct, Radeon, Ryzen AI, DGX Spark, Jetson Orin Nano y hasta Raspberry Pi para los modelos edge. Es compatible con vLLM, SGLang, llama.cpp, Ollama, Keras, Hugging Face Transformers, MLX y LM Studio desde el primer día. No hay excusa de stack para no probarlo.

Hay una advertencia de producción que no puedes ignorar: la variante MoE genera aproximadamente 11 tokens por segundo en una H100, mientras que Qwen 3.5 alcanza 60+ tokens por segundo en el mismo hardware. Si tu aplicación requiere respuestas en tiempo real —chatbots, voice AI, interfaces conversacionales—, ese delta importa y debes medirlo antes de comprometerte con el despliegue.

Qué significa Gemma 4 para tu empresa y tu stack

La licencia Apache 2.0 no es un detalle menor: es el cambio más estratégico del lanzamiento. Uso comercial libre, redistribución permitida, sin royalties, sin restricciones para pipelines propietarios. Mientras Alibaba restringe sus últimas versiones de Qwen, Google hace exactamente lo contrario y abre su modelo más potente.

Hagamos la aritmética que nadie quiere hacer en voz alta. GPT-4o cobra entre $2.50 y $15 por millón de tokens de entrada. Claude 3.5 Sonnet está en rangos similares. Una GPU H100 de 80 GB cuesta aproximadamente $30.000 USD en hardware. Para una empresa con cargas de trabajo medianas o altas —digamos, 50 millones de tokens diarios de inferencia—, la amortización del hardware ocurre en semanas, no en años.

Para sectores regulados —salud, finanzas, gobierno, legal— el cálculo es diferente pero igual de contundente. Estos sectores no pueden enviar datos a servidores externos sin contratos Enterprise, DPAs y auditorías. Gemma 4 con Apache 2.0 en infraestructura propia les da lo que antes solo conseguían con acuerdos privados con OpenAI o Anthropic: IA de frontera con datos que no salen del firewall.

Los benchmarks en RTX 5090 con cuantización Q4 muestran ~2.7x más rendimiento de inferencia que un Apple M3 Ultra, según Forbes. Eso significa que incluso en una workstation de gama alta —sin un servidor dedicado— puedes correr el modelo de 31B de forma viable para muchos casos de uso internos.

El desafío real no es técnico, es organizacional. ¿Tiene tu equipo la madurez de MLOps para gestionar modelos locales? ¿Tienes procesos para versionado de modelos, monitoreo de drift, actualización de pesos? Si la respuesta es no, la comodidad de una API en la nube sigue siendo válida. Pero si la respuesta es sí —o si estás construyendo esa capacidad—, Gemma 4 es el argumento más sólido hasta la fecha para empezar a reducir tu dependencia de APIs de pago.

El movimiento que debes hacer esta semana

No esperes a la próxima revisión de presupuesto. Toma las tres llamadas a APIs externas de mayor volumen en tu stack actual, estima su costo mensual y evalúa si Gemma 4-31B cubre ese caso de uso con el throughput que necesitas. Si el modelo pasa el filtro técnico y el costo de inferencia local es menor en 6 meses, tienes tu caso de negocio.

Gemma 4 no es la solución para todo. Pero por primera vez, un modelo open source con licencia comercial permisiva compite en el top 3 global de rendimiento y cabe en hardware que ya podrías tener. Eso no es un experimento de laboratorio. Es una decisión de arquitectura que vale la pena tomar hoy.

Fuentes