• 7 abril, 2025

Carlos Garsés

Profesional IT

Nvidia acelera IA con Blackwell: 30x más rendimiento y 50% más ingresos

En enero, la aparición del programa de inteligencia artificial R1 de DeepSeek provocó una venta masiva en el mercado de valores. Siete semanas después, el gigante de chips Nvidia, líder en procesamiento de IA, busca posicionarse en el centro de la economía dramática de la IA más barata que representa DeepSeek.

El martes, en el SAP Center de San José, California, Jensen Huang, cofundador y CEO de Nvidia, habló sobre cómo los chips Blackwell de la empresa pueden acelerar drásticamente el rendimiento de DeepSeek R1. Nvidia afirma que sus chips GPU pueden procesar 30 veces más datos que DeepSeek R1 en un centro de datos, medido por el número de tokens por segundo, utilizando un nuevo software de código abierto llamado Nvidia Dynamo.

“Dynamo puede capturar ese beneficio y ofrecer 30 veces más rendimiento con el mismo número de GPU en la misma arquitectura para modelos de razonamiento como DeepSeek”, dijo Ian Buck, jefe de hiperescala y computación de alto rendimiento de Nvidia, en una sesión informativa antes del discurso de Huang en la conferencia GTC de la empresa.

El software Dynamo, disponible hoy en GitHub, distribuye el trabajo de inferencia entre hasta 1,000 chips GPU de Nvidia. Se puede realizar más trabajo por segundo al dividir las tareas para que se ejecuten en paralelo. El resultado: para una tarea de inferencia con un costo de $1 por millón de tokens, se pueden procesar más tokens cada segundo, aumentando los ingresos por segundo para los servicios que ofrecen las GPU.

Buck dijo que los proveedores de servicios pueden decidir ejecutar más consultas de clientes en DeepSeek o dedicar más procesamiento a un solo usuario para cobrar más por un servicio “premium”.

“Las fábricas de IA pueden ofrecer un servicio premium a un precio más alto por millón de tokens”, dijo Buck, “y también aumentar el volumen total de tokens de toda su fábrica”. El término “fábrica de IA” es una creación de Nvidia para describir servicios a gran escala que ejecutan grandes volúmenes de trabajo de IA utilizando los chips, software y equipos de la empresa.

La posibilidad de usar más chips para aumentar el rendimiento (y, por lo tanto, los negocios) en la inferencia de IA es la respuesta de Nvidia a las preocupaciones de los inversores de que se usaría menos computación en general, ya que DeepSeek puede reducir la cantidad de procesamiento necesaria para cada consulta.

Al usar Dynamo con Blackwell, el modelo actual de la GPU insignia de IA de Nvidia, el software Dynamo puede hacer que estos centros de datos de IA generen 50 veces más ingresos que con el modelo anterior, Hopper, dijo Buck. Nvidia ha publicado su propia versión modificada de DeepSeek R1 en HuggingFace. La versión de Nvidia reduce el número de bits utilizados por R1 para manipular variables a lo que se conoce como “FP4”, o punto flotante de cuatro bits, que es una fracción de la computación necesaria para el estándar de punto flotante de 32 bits o B-float 16.

“Aumenta significativamente el rendimiento de Hopper a Blackwell”, dijo Buck. “Lo hicimos sin cambios significativos, reducciones o pérdida de precisión en el modelo. Sigue siendo un gran modelo que produce tokens de razonamiento inteligente”.

Además de Dynamo, Huang presentó la versión más reciente de Blackwell, “Ultra”, que sigue al primer modelo presentado en el evento del año pasado. La nueva versión mejora varios aspectos del Blackwell 200 existente, como aumentar la memoria DRAM de 192 GB de memoria de alto ancho de banda HBM3e a hasta 288 GB. Cuando se combina con el chip CPU Grace de Nvidia, se pueden ensamblar un total de 72 Blackwell Ultras en el equipo NVL72 de la empresa. El sistema aumentará el rendimiento de inferencia en FP4 en un 50% en comparación con el NVL72 actual basado en los chips Grace-Blackwell 200.

Otros anuncios en GTC

La pequeña computadora personal para desarrolladores de IA, presentada en el CES de enero como Project Digits, recibió su nombre oficial: DGX Spark. La computadora usa una versión de la combinación Grace-Blackwell llamada GB10. Nvidia está aceptando reservas para el Spark a partir de hoy.

También se presentó una nueva versión de la computadora de escritorio DGX “Station”, introducida por primera vez en 2017. El nuevo modelo usa el Grace-Blackwell Ultra y vendrá con 784 gigabytes de DRAM. Esto es un gran cambio respecto a la DGX Station original, que dependía de CPU Intel como procesador principal. La computadora será fabricada por Asus, BOXX, Dell, HP, Lambda y Supermicro, y estará disponible “más adelante este año”.

Huang habló sobre una adaptación de los modelos de lenguaje grande de código abierto de Meta, llamada Llama Nemotron, con capacidades de “razonamiento”; es decir, para producir una cadena de pasos que lleven a una conclusión. Nvidia afirma que los modelos Nemotron “optimizan la velocidad de inferencia en 5 veces en comparación con otros modelos de razonamiento abierto líderes”. Los desarrolladores pueden acceder a los modelos en HuggingFace.

Mejoras en los switches de red

Como se esperaba, Nvidia ofreció por primera vez una versión de su switch de red “Spectrum-X” que integra el transceptor de fibra óptica en el mismo paquete que el chip del switch, en lugar de usar transceptores externos estándar. Nvidia dice que estos switches, con velocidades de puerto de 200 o 800 Gb/seg, mejoran los switches existentes con “3.5 veces más eficiencia energética, 63 veces mayor integridad de señal, 10 veces mejor resiliencia de red a escala y 1.3 veces más velocidad de implementación”. Los switches fueron desarrollados con Taiwan Semiconductor Manufacturing, los fabricantes de láser Coherent y Lumentum, el fabricante de fibra Corning y el ensamblador Foxconn.

Nvidia está construyendo una instalación de investigación en computación cuántica en Boston que integrará hardware cuántico líder con supercomputadoras de IA en asociación con Quantinuum, Quantum Machines y QuEra. La instalación dará acceso a los socios de Nvidia a los racks Grace-Blackwell NVL72.

Oracle está haciendo que el software de microservicios “NIM” de Nvidia esté “disponible de forma nativa” en la consola de gestión del servicio de computación OCI de Oracle para sus clientes en la nube.

Huang anunció nuevos socios que integran el software Omniverse de la empresa para la colaboración en diseño de productos virtuales, incluyendo Accenture, Ansys, Cadence Design Systems, Databricks, Dematic, Hexagon, Omron, SAP, Schneider Electric con ETAP y Siemens. Nvidia presentó Mega, un “plano” de diseño de software que se integra en el software Cosmos de Nvidia para simulación, entrenamiento y pruebas de robots. Entre los primeros clientes, Schaeffler y Accenture están usando Mega para probar flotas de manos robóticas en tareas de manejo de materiales.

General Motors ahora está trabajando con Nvidia en “vehículos, fábricas y robots de próxima generación” utilizando Omniverse y Cosmos.

Actualización de tarjetas gráficas

Nvidia actualizó su línea de tarjetas gráficas RTX. La RTX Pro 6000 Blackwell Workstation Edition ofrece 96 GB de DRAM y puede acelerar tareas de ingeniería, como simulaciones en el software Ansys, en un 20%. Una segunda versión, Pro 6000 Server, está diseñada para funcionar en racks de centros de datos. Una tercera versión actualiza RTX en laptops.

Continuando con el enfoque en “modelos base” para robótica, que Huang discutió por primera vez en el CES al presentar Cosmos, reveló un modelo base para robots humanoides llamado Nvidia Isaac GROOT N1. Los modelos GROOT están preentrenados por Nvidia para lograr pensamiento de “Sistema 1” y “Sistema 2”, una referencia al libro *Pensar rápido y despacio* del científico cognitivo Daniel Kahneman. El software se puede descargar desde HuggingFace y GitHub.

El gigante de dispositivos médicos GE es uno de los primeros en usar la versión para atención médica de Nvidia Isaac. El software proporciona un entorno médico simulado que se puede usar para entrenar robots médicos. Las aplicaciones podrían incluir operar pruebas de rayos X y ultrasonido en partes del mundo donde faltan técnicos calificados para estas tareas.

Nvidia actualizó su tecnología Nvidia Earth para pronósticos del tiempo con una nueva versión, Omniverse Blueprint for Earth-2. Incluye “flujos de trabajo de referencia” para ayudar a las empresas a prototipar servicios de predicción del tiempo, bibliotecas de aceleración GPU, “un marco de física-IA, herramientas de desarrollo y microservicios”.

Los proveedores de equipos de almacenamiento pueden integrar agentes de IA en sus dispositivos a través de una nueva asociación llamada Plataforma de Datos de IA de Nvidia. Esto significa que los proveedores pueden optar por incluir GPU Blackwell en sus equipos. Los proveedores de almacenamiento con los que Nvidia está trabajando incluyen DDN, Dell, Hewlett Packard Enterprise, Hitachi Vantara, IBM, NetApp, Nutanix, Pure Storage, VAST Data y WEKA. Las primeras ofertas de estos proveedores se esperan este mes.

Nvidia dijo que este es el evento GTC más grande hasta la fecha, con 25,000 asistentes en persona y 300,000 en línea.

Vía | Nvidia acelera IA con Blackwell: 30x más rendimiento y 50% más ingresos – Tecnología con Juancho

Por Juan Padra

Más de 40 años de experiencia en tecnología. DJ, enseñanza del español y radio en línea. Profesional versátil y apasionado de la música y la tecnología. ¡Bienvenido a mi perfil!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Verificado por MonsterInsights