Tu GPU lleva horas sin hacer nada mientras AWS cobra 300.000 dólares al mes por cuatro instancias H100. FAR AI quiere acabar con ese absurdo —y el 30 de marzo de 2025 abrió el registro de nodos para que cualquiera pueda participar.

FAR Labs, la empresa detrás del proyecto, acaba de iniciar las pruebas cerradas de su red de inferencia distribuida. La propuesta es directa: conecta tu GPU, recibe cargas de trabajo de inferencia IA, cobra por los ciclos que antes malgastabas en reposo. Del otro lado, developers y startups acceden a inferencia en tiempo real sin tocar los hyperscalers.

Qué es FAR AI y cómo funciona su modelo de cómputo distribuido

FAR AI es una red P2P de inferencia construida sobre Dizzaract, el motor de orquestación propio de FAR Labs. Cuando una aplicación necesita correr un modelo de lenguaje, Dizzaract enruta la solicitud en tiempo real hacia el nodo disponible más óptimo de la red —el que tiene la GPU libre, la latencia adecuada y la capacidad suficiente para esa tarea concreta.

El modelo de verificación se llama proof-of-compute. Funciona así: tu GPU completa una carga de trabajo, un orquestador independiente verifica el resultado antes de que ese trabajo cuente hacia tus ganancias. No hay forma de cobrar por cómputo que no hayas entregado. Es el mismo principio de los sistemas blockchain de prueba de trabajo, pero aplicado a inferencia IA real.

Para registrar un nodo no necesitas hardware de datacenter. Entras a la web de FAR AI, seleccionas el tipo de GPU que tienes —gaming cards incluidas— y el sistema te muestra una estimación de ganancias mensuales según tu capacidad disponible. Los estudios académicos de ACM publicados en 2025 confirman que tarjetas como la RTX 4090 son técnicamente viables para inferencia LLM, lo que valida el modelo con hardware doméstico de gama alta.

La arquitectura completa de FAR AI se organiza en cuatro capas: InFAAS (inferencia como servicio), FAR Chat, AI Digital Twin y Commission. FAR Labs lo llama una compute lattice descentralizada. En la práctica, significa que la red no sirve solo para inferencia cruda —aspira a ser la infraestructura base de aplicaciones IA completas.

Qué significa esto para ti: developer, startup o CEO con costes de IA desbocados

El contexto que hace urgente la propuesta de FAR AI es el precio del cómputo centralizado. Alquilar solo cuatro instancias H100 durante un mes en AWS, Azure o GCP ronda los 300.000 dólares. Proveedores especializados como GMI Cloud ya ofrecen H100 desde 2,10 dólares por hora, un avance real —pero FAR AI apunta más abajo todavía, al aprovechar hardware que ya existe y que en este momento está inactivo. Se estiman más de 3.000 millones de GPUs inactivas en el mundo en cualquier momento dado. Ese es el mercado que FAR AI quiere capturar.

Para una startup que gasta entre 15.000 y 40.000 dólares mensuales en llamadas a APIs de inferencia, acceder a una red así puede cambiar el modelo financiero del producto. La inferencia representa el grueso del coste operativo de cualquier aplicación IA en producción —no el entrenamiento, que ocurre una vez, sino la inferencia, que ocurre millones de veces al día. El mercado global de inferencia IA está proyectado para pasar de 106.000 millones de dólares en 2025 a 255.000 millones en 2030. FAR AI apunta exactamente a esa bolsa.

FAR AI compite en el espacio DePIN (Decentralized Physical Infrastructure Networks) junto a io.net, Akash, Render Network y Aethir —esta última entregó más de 1.500 millones de horas de cómputo distribuido en 2025. La diferencia clave de FAR AI es su foco exclusivo en inferencia en tiempo real y la apertura a GPUs de consumo, lo que baja el umbral de participación y amplía masivamente la red potencial de nodos.

Dicho esto, los riesgos son reales y hay que nombrarlos. Los SLAs de una red distribuida no son los de AWS —si la red está poco poblada en sus primeras semanas, la latencia y la disponibilidad pueden sufrir. La privacidad de datos en nodos de terceros es una pregunta abierta que FAR Labs tendrá que responder con documentación técnica clara antes de que empresas con datos sensibles se apunten. Y la prueba cerrada que arrancó el 30 de marzo es exactamente eso: una prueba. El rendimiento a escala está por demostrar.

El movimiento que deberías hacer ahora

Si tienes una RTX 3080 o superior acumulando polvo, regístrate como operador de nodo y entra en la lista de espera. El coste de oportunidad es cero y la red que llegue a producción con más nodos será la que gane. Si eres developer o CEO evaluando infraestructura de inferencia para 2025-2026, pon a FAR AI en tu radar junto a io.net y Akash —no como sustituto inmediato de tu proveedor actual, sino como palanca de negociación y alternativa real cuando la red alcance masa crítica. La infraestructura IA no tiene por qué ser monopolio de cuatro empresas. FAR AI es una prueba concreta de que el modelo alternativo ya existe y está arrancando.

Fuentes