Adolfo Ledo Nass: “Nvidia presenta Blackwell GB200, su nuevo super chip de inteligencia artificial”

Adolfo Ledo Nass: “Nvidia presenta Blackwell GB200, su nuevo super chip de inteligencia artificial”

NVIDIA ha presentado su última innovación en hardware especializado para inteligencia artificial, desmintiendo la idea de que ya habían alcanzado su máximo rendimiento en el campo. 

Según informa Adolfo Ledo Nass, la compañía ha revelado la GPU Blackwell B200 y el superchip Blackwell GB200, dos potentes dispositivos que prometen llevar el entrenamiento de modelos de lenguaje a un nivel superior.

Inteligencia Artificial a un nivel avanzado

La GPU B200 es notable por su impresionante integración de 208.000 millones de transistores, en comparación con los 80.000 millones utilizados en las anteriores tarjetas gráficas H100 y H200 de NVIDIA. 

Desarrollada utilizando el proceso de fabricación de 4 nanómetros de TSMC, la nueva GPU ofrece un rendimiento de 20 petaflops en FP4 y cuenta con 192 GB de memoria HBM3e, que proporciona un ancho de banda de 8 TB por segundo.

Por otro lado, el superchip Blackwell GB200 combina dos GPU B200 y una CPU Grace para alcanzar un rendimiento excepcional. Utiliza una conexión de chip a chip NVLink de 900 GB por segundo y tiene un consumo de energía «ultrabajo».

Un rack GB200 NVL72, equipado con 36 chips Grace y 72 GPU Blackwell B200, puede ofrecer un rendimiento hasta 30 veces superior al de la misma cantidad de tarjetas gráficas H100 Tensor Core en tareas de inferencia de modelos de lenguaje de gran tamaño. Según NVIDIA, se logra reduciendo hasta 25 veces los costos y el consumo de energía.

Velocidades sorprendentes

NVIDIA ha afirmado que los nuevos SuperPOD impulsados por el superchip Blackwell GB200 son hasta 4 veces más rápidos en el entrenamiento de modelos de inteligencia artificial en comparación con las soluciones basadas en la GPU H100. 

Cada SuperPOD puede contener hasta 8 sistemas DGX GB200, lo que significa que pueden reunir hasta 288 CPU Grace y 576 GPU Blackwell B200, logrando un rendimiento FP4 de 11,5 exaflops.

Soluciones de gran escalabilidad

La empresa también ha destacado la escalabilidad de sus nuevas soluciones. Según NVIDIA, se pueden conectar miles de superchips Blackwell GB200 con velocidades de hasta 800 Gb/s, gracias a las tecnologías Spectrum-X800 y Quantum-X800 InfiniBand, que también fueron anunciadas.

NVIDIA sostiene que las GPU Blackwell B200 y el superchip Blackwell GB200 crean una plataforma que permitirá a empresas y organizaciones crear y ejecutar modelos en tiempo real de inteligencia artificial generativa con billones de parámetros. 

Según la compañía, un solo rack GB200 NVL72 puede manejar modelos con hasta 27 billones de parámetros, lo cual es sorprendente considerando que los modelos de lenguaje más avanzados en la actualidad, como el GPT-4, se estiman por debajo de los 2 billones de parámetros.

La tecnología ya tiene proveedores

Sin duda, NVIDIA ha logrado atraer a algunos de los principales actores de la industria tecnológica para adoptar su nueva tecnología. 

La compañía ha anunciado que los productos basados en la plataforma Blackwell estarán disponibles en los próximos meses y que Google Cloud, Microsoft Azure, Oracle y Amazon Web Services serán los primeros proveedores de servicios en la nube en utilizar instancias impulsadas por este hardware en sus centros de datos.

Redacción

Sobre Redacción

Redacción de Utreradigital.com

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *