Mantente al dรญa con el canal de WhatsApp de CriptoTendencia: Noticias al instante sobre Bitcoin, Altcoins, DeFi, NFT, Blockchain y Metaverso. ยกSuscrรญbete!
El avance de la inteligencia artificial de alto rendimiento suma un nuevo protagonista con los sistemas Vera Rubin de prรณxima generaciรณn desarrollados por Nvidia.
Segรบn estimaciones recientes, estas plataformas requerirรกn millones de terabytes de capacidad SSD en los prรณximos aรฑos, una demanda que podrรญa agravar la ya delicada situaciรณn de abastecimiento en el mercado global de memorias NAND.
Vera Rubin y el impacto en la memoria
De acuerdo con proyecciones de analistas de Citi, cada sistema de servidor Vera Rubin necesitarรก alrededor de 1.152 terabytes de almacenamiento SSD NAND para sostener cargas avanzadas de inteligencia artificial.
Ademรกs, si se consideran los envรญos estimados para 2026 y 2027, de 30.000 y 100.000 unidades respectivamente, la demanda acumulada alcanzarรญa los 34.6 millones de terabytes en 2026 y podrรญa escalar hasta los 115.2 millones de terabytes en 2027.
En tรฉrminos de impacto, estas cifras representan aproximadamente el 2,8% de la demanda global prevista de NAND para 2026 y el 9,3% en 2027, una proporciรณn significativa atribuible a un รบnico ecosistema de hardware.
Este crecimiento estructural, por su magnitud, tiene el potencial de intensificar la escasez global de NAND, con efectos directos sobre los precios de los SSD y de otros componentes de memoria, tanto en el segmento de consumo como en el empresarial.
La presiรณn sobre el ecosistema tecnolรณgico
El impacto de Vera Rubin no se limita a su generaciรณn actual, ya que Nvidia prepara arquitecturas futuras como Rubin Ultra y Feynman, que elevarรกn aรบn mรกs las exigencias de almacenamiento y memoria.
En paralelo, la comunidad tecnolรณgica, presente en eventos como CES 2026, comienza a percibir una presiรณn creciente sobre la DRAM y anticipa una posible crisis en el mercado de NAND, marcada por el encarecimiento de los SSD y por una competencia cada vez mรกs intensa entre sectores para acceder a recursos limitados.
En tรฉrminos de infraestructura, cada rack de servidores Vera Rubin NVL72 podrรญa requerir hasta 16 terabytes de NAND por GPU, lo que darรญa lugar a configuraciones superiores a los 1.100 terabytes por servidor.
Bajo este escenario, la prรณxima ola de inteligencia artificial demandarรก una capacidad de almacenamiento masiva y podrรญa impulsar un nuevo ciclo alcista en los precios de la memoria flash.
El rol de Nvidia en la prรณxima escasez de memorias
Si la demanda mantiene el ritmo proyectado, impulsada en gran medida por las arquitecturas de Nvidia, el sector tecnolรณgico podrรญa enfrentarse a tensiones de suministro y a una escalada de costos sin precedentes.
Ante este contexto, los fabricantes de memorias, los proveedores de servicios en la nube y las compaรฑรญas centradas en inteligencia artificial deberรกn replantear sus estrategias para absorber el crecimiento de la demanda sin comprometer la eficiencia ni trasladar incrementos excesivos a los precios finales.
En paralelo, los consumidores podrรญan comenzar a percibir subas en el costo de los SSD, los sistemas de almacenamiento y otros dispositivos electrรณnicos, como reflejo de la presiรณn ejercida por los grandes actores tecnolรณgicos a lo largo de toda la cadena de valor.
Este escenario abre interrogantes sobre la sostenibilidad del actual ritmo de expansiรณn de la inteligencia artificial y sobre la capacidad de la industria para adaptarse a una etapa en la que el almacenamiento masivo se vuelve tan estratรฉgico como la propia capacidad de cรณmputo.

















