Mientras el mercado se mueve, la información oportuna marca la diferencia → Recibe actualizaciones en nuestro canal oficial de WhatsApp.
En su ensayo The Butterfly Touch, publicado este 11 de mayo, Arthur Hayes recupera un concepto del siglo XIX para explicar uno de los fenómenos más contraintuitivos del ciclo actual: cuanto más barata se vuelve la inteligencia artificial por unidad de procesamiento, mayor es el volumen total de cómputo que el mundo demanda.
No es una anomalía. Es una ley económica que lleva 160 años funcionando sin excepción.
Qué es la Paradoja de Jevons y por qué importa ahora
William Stanley Jevons la formuló en 1865 al observar algo que parecía un contrasentido. Las mejoras en los motores de vapor de James Watt no redujeron el consumo de carbón en Gran Bretaña, lo dispararon.
Al volverse más eficiente la producción de energía, más industrias la adoptaron. Al bajar el costo por unidad, creció la demanda total. Los avances en la eficiencia de los modelos de IA hacen el cómputo más barato y más accesible, pero eso impulsa una demanda explosiva de recursos computacionales, no una reducción.
Hayes lo sitúa en el centro del argumento macro que lo lleva a ser alcista en crypto. Y los datos de 2025 y 2026 le dan la razón.
El error que cometió el mercado con DeepSeek
El experimento más reciente ocurrió en enero de 2025. Cuando el modelo chino DeepSeek demostró que era posible entrenar sistemas de alto rendimiento a una fracción del costo previo, muchos inversores vendieron acciones de fabricantes de chips.
El razonamiento era simple: si la IA necesita menos recursos, la demanda de hardware cae.
Ese razonamiento era incorrecto. Meta aumentó su presupuesto para inversiones en inteligencia artificial a un rango de entre 60.000 y 65.000 millones de dólares para el año 2025, apenas unos días después de la publicación de DeepSeek. La compañía afirmó que expandir su infraestructura continuaría siendo una ventaja competitiva a largo plazo. La eficiencia no detuvo la inversión, la impulsó.
La paradoja operó con exactitud clínica.
Los números que ya no tienen precedente
La escala del CAPEX de IA hace difícil ignorar el fenómeno. CreditSights revisó al alza su proyección en febrero de 2026 y estima ahora un gasto de aproximadamente 750.000 millones de dólares en CAPEX para los cinco mayores hyperscalers durante este año, lo que implicaría un crecimiento del 67% interanual y el tercer año consecutivo superando el 60% de incremento.
Alrededor del 75% de ese gasto agregado, unos 450.000 millones de dólares, está directamente vinculado a infraestructura de IA.
Hayes añade otro mecanismo que amplifica el ciclo: el Efecto Reina Roja. El valor económico de un modelo de IA es relativo -se define por su ventaja sobre los competidores, no por su capacidad absoluta-, lo que obliga a cada empresa a invertir de forma continua solo para mantener su posición. La innovación de un actor deprecia endógenamente el capital existente de sus rivales.
El resultado es una carrera donde nadie puede dejar de gastar. Y donde gastar más es la única respuesta racional.
Qué significa esto para blockchain y las redes descentralizadas
Cuando la demanda de cómputo supera la capacidad de los sistemas centralizados de responder con suficiente velocidad y a precios accesibles, aparece una brecha estructural.
La brecha entre la oferta de GPUs y la demanda de cargas de trabajo de IA es el principal motor estructural de las redes de cómputo descentralizado en 2026.
Las redes DePIN -infraestructura Física Descentralizada- surgieron directamente de esa presión: agregan hardware subutilizado, desde granjas de minería reconvertidas hasta centros de colocación de gama media, y lo ponen a disposición del mercado a precios competitivos.
En 2026, proyectos como Render Network han consolidado su posición como proveedores de inferencia de IA a gran escala, y Akash opera como una nube descentralizada que compite directamente con los proveedores centralizados en precio y accesibilidad.
No es narrativa especulativa. Es respuesta de mercado a un desequilibrio real.
El límite del argumento
La objeción más seria es legítima: las redes distribuidas no pueden garantizar la latencia, la disponibilidad ni los estándares de servicio que exigen los grandes clientes para el entrenamiento de modelos de frontera.
Es un límite real. Pero pasa por alto que la demanda de IA no es homogénea.
El entrenamiento de modelos de frontera permanecerá en los hyperscalers. La inferencia -la parte del proceso que crece más rápido a medida que los agentes de IA se despliegan a escala- es técnicamente compatible con arquitecturas distribuidas.
La Paradoja de Jevons no beneficia por igual a todos los actores. Favorece específicamente a quienes resuelven el acceso al cómputo en el punto donde la demanda crece con más velocidad.
La conclusión de Hayes y lo que implica
Hayes sostiene en The Butterfly Touch que el gasto en CAPEX de IA se expandirá indefinidamente hasta que un evento exógeno lo detenga. Identifica dos candidatos: un IPO o fusión de escala indigerible para el mercado, o una narrativa política anti-IA que gane tracción en el ciclo electoral de 2028 en Estados Unidos.
Hasta ese momento, la paradoja persiste. La eficiencia reduce el costo por unidad, lo que provoca que la demanda aumente de manera desproporcionada. Como resultado, el cómputo total incrementa, y la infraestructura que lo sostiene debe continuar expandiéndose.
Una ley de 1865 sigue explicando 2026 con más precisión que la mayoría de los modelos construidos esta década.
-Nodeor
