¿Quieres operar este fin de semana? Los índices sintéticos siguen activos → Explorar opciones.
Espacio patrocinadoDurante el CES 2026 en Las Vegas, Nvidia eligió este escenario para presentar Rubin, su nueva plataforma de computación de inteligencia artificial de próxima generación.
Con este anuncio, la compañía refuerza su posición como líder del sector, al introducir avances tecnológicos que apuntan a transformar la eficiencia, la velocidad y la escalabilidad de la IA tanto en la nube como en los centros de datos.
Rubin y la nueva arquitectura integral de NVIDIA
La plataforma Rubin representa una evolución que va mucho más allá de una simple actualización de GPU. En esta nueva etapa, Nvidia apuesta por una arquitectura integral que combina GPU, CPU, tarjetas de red y switches de última generación, todos diseñados para operar de forma coordinada y maximizar el rendimiento del sistema.
En el centro de esta propuesta se encuentra la GPU Rubin, que alcanza hasta 50 PFLOPS en tareas de inferencia y 35 PFLOPS en entrenamiento, lo que supone un aumento de rendimiento de hasta cinco veces frente a la generación anterior.
A este salto de capacidad se suma la incorporación de memoria HBM4, con un ancho de banda de 22 terabytes por segundo y una integración de 336.000 millones de transistores, lo que permite afrontar cargas de trabajo avanzadas en inteligencia artificial y cómputo científico.
Además, la arquitectura se complementa con la CPU Vera, equipada con 88 núcleos personalizados basados en ARM, junto con conectividad NVLink 6, mejoras en refrigeración líquida y una eficiencia energética notablemente superior frente a generaciones previas.
Escalabilidad y conectividad de nueva generación
La plataforma Rubin amplía su alcance al integrar componentes que permiten construir desde servidores individuales hasta SuperPODs capaces de escalar a cientos de GPU y CPU interconectadas de forma eficiente.
Según explicó NVIDIA en su anuncio oficial, esta arquitectura está pensada como una base completa para los supercomputadores de inteligencia artificial de próxima generación, donde cada elemento del sistema trabaja de manera coordinada.
En ese contexto, el nuevo switch NVLink 6 cumple un rol central al duplicar el ancho de banda de comunicación interna, mientras que las soluciones Spectrum-X con óptica integrada prometen una eficiencia energética hasta cinco veces mayor y una fiabilidad diez veces superior frente a los switches tradicionales.
A ello se suma la incorporación de sistemas de caché de memoria contextuales, diseñados para gestionar los enormes volúmenes de datos generados por modelos avanzados de IA, optimizando tanto la inferencia como el consumo energético en entornos de alta demanda.
Infraestructura pensada para el futuro de la IA
La llegada de Rubin representa no solo un salto técnico, sino también un cambio de enfoque en la forma en que se desplegarán soluciones de inteligencia artificial a gran escala.
En esa línea, los principales proveedores de nube -entre ellos AWS, Google Cloud, Microsoft y Oracle Cloud- ya se preparan para integrar esta plataforma en sus servicios durante la segunda mitad de 2026, lo que podría acelerar su adopción a nivel global.
A partir de sistemas modulares y una arquitectura diseñada para escalar sin fricciones, Nvidia apunta a facilitar la transición de empresas y centros de investigación hacia infraestructuras más potentes y adaptables.
Todo ello se complementa con una simplificación en el montaje de racks, mejoras en la gestión de la energía y nuevas capacidades en hardware de red, consolidando a Rubin como un punto de referencia para la próxima etapa de la inteligencia artificial y el cómputo de alto rendimiento.

















