NVIDIA anunció el SuperChip más rápido del mundo, y este no es otro que el NVIDIA GH200 Grace Hopper. Que sea el más rápido se debe en gran medida a la ayuda de ser la primera GPU que se ve vitaminada por la memoria de alto rendimiento HBM3e. Básicamente, la memoria HBM3e ofrece un 50% más de velocidad que el estándar actual conocido como HBM3. Esto se traduce de un ancho de banda de hasta 10 TB/s por sistema y 5 TB/s por chip. Esta memoria más rápida permite ejecutar modelos 3,5 veces más grandes que la versión anterior.
Diseñada para acelerar la Inteligencia Artificial, nos encontramos con una plataforma dotada de un procesador con 144 núcleos Arm Neoverse, mientras que el chip gráfico NVIDIA GH200 está respaldado por nada menos que 282 GB de memoria HBM3e. En una configuración dual, se ofrece 3,5 veces más capacidad de memoria, y se multiplica por 3 el ancho de banda del producto más avanzado actualmente disponible en el mercado. Esto da como resultado un rendimiento de 8 Petaflops de rendimiento IA.
Saluda al SuperChip NVIDIA GH200 Grace Hopper
Esta bestia ha sido diseñada para la nueva era de la aceleración computacional y la inteligencia artificial generativa. También llega en el mejor de los momentos, donde la IA ha llegado al mercado de consumo y al día de hoy está teniendo mucha demanda. Los principales culpables del auge de la IA son servicios como ChatGPT, masivamente utilizado para ahorrarte tiempo a la hora de hacer tus deberes o trabajos universitarios; o DALL-E 2, para la creación de imágenes por IA. Junto a otros servicios menos conocidos, la industria está sedienta de soluciones que aceleren o ayuden a entrenar las IA actuales y futuras.
NVIDIA presenta su nueva plataforma GH200 Grace Hopper, basada en un nuevo superchip Grace Hopper con el primer procesador HBM3e del mundo, diseñada para la era de la aceleración computacional y la inteligencia artificial generativa. Creada para manejar las cargas de trabajo de IA generativa más complejas del mundo, que abarcan grandes modelos de lenguaje, sistemas de recomendación y bases de datos vectoriales, la nueva plataforma estará disponible en una amplia gama de configuraciones.
La configuración dual -que ofrece hasta 3,5 veces más capacidad de memoria y 3 veces más ancho de banda que la oferta de la generación actual- comprende un único servidor con 144 núcleos Arm Neoverse, ocho petaflops de rendimiento de IA y 282 GB de la última tecnología de memoria HBM3e.
Eso sí, aún no es real: no habrá disponibilidad hasta la segunda mitad de 2024
La desilusión para los expertos de IA llega cuando NVIDIA ha confirmado la disponibilidad de los primeros sistemas con sus GPU Hopper GH200 y la memoria HBM3e. En concreto, no estarán disponibles hasta la segunda mitad del próximo año: 2024. Esto implica llegar un poco más tarde que la solución de su rival AMD, la Instinct MI300X, la cual recurrirá a una memoria HBM3 ofreciendo ancho de banda de hasta 5,2 TB/s con capacidades de memoria VRAM de hasta 192 GB.
Al igual que el SuperChip de NVIDIA, la solución de AMD también incorpora una CPU, aunque esta ofreciendo hasta 24 núcleos bajo si arquitectura x86 de alto rendimiento AMD Zen 4. Misma arquitectura utilizada actualmente por sus procesadores más avanzados como los AMD Ryzen 7000.