Innovación

Intel y NVIDIA refuerzan su alianza para impulsar la infraestructura de IA

Intel y NVIDIA integran Xeon 6 en sistemas DGX Rubin NVL8 para optimizar el rendimiento y la escalabilidad de la IA.
Miércoles, Marzo 18, 2026

La infraestructura de inteligencia artificial entra en una nueva fase de evolución. Intel anunció que sus procesadores Xeon 6 serán utilizados como CPU anfitrionas en los sistemas NVIDIA DGX Rubin NVL8, consolidando su rol en la arquitectura de centros de datos para IA.

El anuncio, realizado en el marco de NVIDIA GTC 2026, refleja un cambio clave en el desarrollo de la IA: el foco ya no está solo en el entrenamiento de modelos, sino en la inferencia en tiempo real a gran escala.

La CPU gana protagonismo en la era de la inferencia

A medida que la inteligencia artificial evoluciona, el rendimiento del sistema ya no depende únicamente de las GPU. La CPU anfitriona se convierte en el eje de la operación, al encargarse de la orquestación, la gestión de memoria y la seguridad de los modelos.

“La IA está pasando del entrenamiento a gran escala a la inferencia en tiempo real y en todas partes”, señaló Jeff McVeigh, vicepresidente corporativo de Intel.

En este nuevo escenario, la eficiencia del sistema completo —y no solo de los aceleradores— define el desempeño y el costo total de propiedad.

Una arquitectura diseñada para escalar la IA

Los sistemas NVIDIA DGX Rubin NVL8 integran Intel Xeon 6 como base para soportar cargas de trabajo complejas, gracias a capacidades como:

  • Alto ancho de banda de memoria

  • Rendimiento equilibrado en múltiples cargas

  • Compatibilidad con el ecosistema x86

  • Capacidades avanzadas de entrada/salida (PCIe)

Esta combinación permite optimizar la interacción entre CPU y GPU, un factor crítico en entornos de inferencia masiva.

Además, la arquitectura busca reducir el costo total de operación, uno de los principales desafíos en la adopción de IA a gran escala.

Seguridad y eficiencia en entornos críticos

Otro de los factores diferenciales es la seguridad. Las extensiones de dominio de confianza (TDX) de Intel permiten proteger los datos y modelos de IA mediante aislamiento basado en hardware, lo que resulta clave en entornos empresariales y de misión crítica.

A esto se suman capacidades como:

  • Computación confidencial en rutas CPU-GPU

  • Protección de datos en uso

  • Mayor fiabilidad operativa

La seguridad se posiciona como un componente estructural en la infraestructura de IA.

Rendimiento optimizado para nuevas cargas de trabajo

Entre las características técnicas de Xeon 6 destacan:

  • Hasta 8 TB de memoria del sistema

  • Ancho de banda de memoria hasta 3 veces mayor

  • Soporte para PCIe 5.0

  • Optimización para inferencia heterogénea

Estas capacidades permiten alimentar de forma más eficiente a las GPU y sostener cargas de trabajo cada vez más complejas, especialmente en escenarios de IA generativa y agentes inteligentes.

Un movimiento clave en la carrera por la IA

La colaboración entre Intel y NVIDIA refuerza una tendencia clara: la infraestructura de IA se está construyendo sobre arquitecturas híbridas donde CPU y GPU trabajan de forma coordinada.

A medida que la inteligencia artificial se expande hacia aplicaciones en tiempo real, la eficiencia, la seguridad y la capacidad de escalar serán los factores determinantes en la competencia tecnológica global, y en ese escenario, la arquitectura del sistema completo se convierte en el verdadero diferenciador.