NVIDIA revela primero

El CEO de NVIDIA, Jensen Huang, inició la Conferencia de Tecnología de Gráficos de la compañía (GTC) con un discurso de apertura, lleno de anuncios. La clave revela incluye la primera CPU discreta de NVIDIA, llamada Grace, así como su arquitectura de la tolva de próxima generación, que llegará más adelante en 2022.

NVIDIA GeForce RTX 30 Series | Official Launch Event [4K]

El Superchip de la CPU de Grace es la primera CPU discreta de NVIDIA, pero no estará en el corazón de su próxima PC de juego. NVIDIA anunció la CPU de Grace en 2021, pero esta superchip, ya que Nvidia lo llama, es algo nuevo. Puse dos CPU de gracia, similar al M1 Ultra, conectado a través de la tecnología NVLINK de NVIDIA.

Sin embargo, a diferencia del M1 Ultra, sin embargo, la Superchip de Grace no está construida para el rendimiento general. La GPU de 144 núcleos se construye para A.I., Ciencia de los datos y aplicaciones con alto contenido de memoria. La CPU todavía utiliza núcleos de brazo, a pesar de que la oferta abandonada de $ 40 mil millones de NVIDIA para comprar la compañía.

Además de la Superchip de Grace, NVIDIA mostró su arquitectura de la tolva de próxima generación. Esta no es la arquitectura que enciende el RTX 4080, según la especulación. En su lugar, está construido para los aceleradores del centro de datos de NVIDIA. NVIDIA está debutando la arquitectura en la GPU H100, que reemplazará a la A100 anterior de NVIDIA.

NVIDIA llama al H100 el "Chip más avanzado del mundo". Está construido utilizando el proceso de fabricación N4 de CHIPMAKER TSMC, embalaje en un asombroso asombroso de 80 mil millones de transistores. Como si eso no fuera suficiente, también es la primera GPU para apoyar la memoria PCIE 5.0 y HBM3. NVIDIA dice que solo 20 H100 GPU pueden "mantener el equivalente a todo el tráfico de Internet del mundo", mostrando el poder de PCIE 5.0 y HBM3.

Los clientes podrán acceder a la GPU a través de los servidores DGX de cuarta generación de NVIDIA, que combinan ocho gpus H100 y 640 GB de memoria HBM3. Estas máquinas, según NVIDIA, proporcionan 32 petaflops de a.i. Rendimiento, que es seis veces más que A100 de la última generación.

Si el DGX no ofrece suficiente poder, NVIDIA también ofrece su superpod DGX H100. Esto se basa en NVIDIA al alquilar sus aceleradores de SuperPod el año pasado, lo que permite aquellos sin el presupuesto para los centros de datos masivos aprovechar el poder de A.I. Esta máquina combina 32 sistemas DGX H100, que ofrece una memoria masiva de 20TB de memoria HBM3 y 1 exoflop de A.I. rendimiento.

NVIDIA está debutando la nueva arquitectura con su propia supercomputadora EOS, que incluye 18 superpods DGX H100 para un total de 576 H100 GPUS. Habilitar este sistema es la cuarta generación de NVIDIA de NVLink, que proporciona una alta interconexión de ancho de banda entre los grupos masivos de GPU.

A medida que aumenta el número de GPUS, NVIDIA mostró que la última generación A100 sería plana. La tolva y la cuarta generación NVLink no tienen ese problema, según la empresa. Como el número de GPUs escalas en los miles, NVIDIA dice que los sistemas basados ​​en H100 pueden proporcionar hasta nueve veces más rápido A.I. Capacitación que los sistemas basados ​​en A100.

Esta arquitectura de próxima generación proporciona "beneficios de rendimiento que cambian el juego", según NVIDIA. Aunque emocionante para el mundo de a.i. y la computación de alto rendimiento, todavía estamos esperando ansiosamente los anuncios en el próximo RTX 4080 de NVIDIA, que se rumorea que se lanzará a fines de este año.

Comentarios

Entradas populares