Meta levantará data centers hiperescala con GPUs Blackwell y Rubin de NVIDIA
El acuerdo contempla la adopción a gran escala de CPUs de NVIDIA, redes Spectrum‑X Ethernet y millones de GPUs NVIDIA Blackwell y Rubin para cargas de entrenamiento e inferencia.
Meta y NVIDIA ampliaron su colaboración para acelerar la hoja de ruta de infraestructura de IA de Meta mediante centros de datos a hiperescala optimizados para entrenamiento e inferencia, combinando hardware, red y software en una arquitectura unificada.
NVIDIA enmarcó el anuncio como una asociación que abarca infraestructura “on‑premises”, despliegues en la nube y plataforma de IA, con trabajo conjunto de ingeniería para co-diseñar y optimizar modelos y cargas de producción a gran escala.
-
Centros de datos a hiperescala y GPU a gran escala: Meta prevé desplegar “millones” de GPUs NVIDIA de las familias Blackwell y Rubin, orientadas a sostener tanto el entrenamiento como la inferencia de modelos de IA en su infraestructura de largo plazo.
-
CPU y eficiencia energética: La compañía también ampliará el uso de CPUs Arm NVIDIA Grace en aplicaciones de producción en sus centros de datos, con el objetivo de mejorar el rendimiento por vatio; NVIDIA describe este movimiento como su primer despliegue “Grace‑only” a gran escala.
-
Próxima generación de CPU: Ambas empresas indicaron colaboración para desplegar CPUs NVIDIA Vera, con “potencial” de un despliegue a gran escala en 2027.
-
Red para IA (Ethernet a escala): Meta adoptará NVIDIA Spectrum‑X Ethernet en su huella de infraestructura, e integrará switches Spectrum‑X en su plataforma Facebook Open Switching System, buscando rendimiento predecible y baja latencia para clusters de IA.
-
Arquitectura unificada y nube: NVIDIA señaló que Meta desplegará sistemas basados en NVIDIA GB300 y que la arquitectura abarcará centros de datos propios y despliegues a través de NVIDIA Cloud Partner, para simplificar operaciones y escalar capacidad.
En el bloque de privacidad y seguridad, NVIDIA informó de la adopción por parte de Meta de NVIDIA Confidential Computing para el “private processing” de WhatsApp, orientado a habilitar funciones de IA preservando la confidencialidad e integridad de los datos.
Meta, por su parte, ha descrito “Private Processing” como un entorno de procesamiento que incorpora requisitos de “confidential processing” y garantías verificables, con medidas como sesiones con atestación remota (RA‑TLS) y el uso de entornos de ejecución confiables (TEEs) para proteger datos durante el procesamiento.
El documento técnico de Meta sobre Private Processing detalla una arquitectura por capas (hardware y software) diseñada para permitir funciones de IA con controles de privacidad, incluyendo el uso de tecnologías de virtualización confidencial y mecanismos de verificación/atestación.
NVIDIA añadió que ambas compañías trabajarán para extender capacidades de computación confidencial más allá de WhatsApp hacia nuevos casos de uso en el portafolio de Meta, con el objetivo de “privacy‑enhanced AI” a escala.
En el plano corporativo, el anuncio incluye declaraciones públicas de Jensen Huang y Mark Zuckerberg subrayando el co-diseño entre CPU, GPU, red y software, y la intención de construir clusters con la plataforma “Vera Rubin”.