Las GPU con arquitectura Hopper, más conocidas como Hopper GPU, son la última generación de GPU de alto rendimiento de NVIDIA, diseñadas específicamente para inteligencia artificial (IA) y computación de alto rendimiento (HPC), lo que permite la escalabilidad de una amplia variedad de cargas de trabajo. Se basan en una arquitectura innovadora con potentes núcleos Tensor y combinan diversas tecnologías avanzadas para lograr la máxima eficiencia. Las Hopper GPU de NVIDIA son ideales para tareas como inferencia de IA, entrenamiento de aprendizaje profundo e inteligencia artificial generativa.

La arquitectura de las Hopper GPU de NVIDIA

El término “Hopper GPU” proviene de la arquitectura Hopper, una microarquitectura de GPU que constituye la base de estos procesadores gráficos de alto rendimiento. Está optimizada para cargas de trabajo de inteligencia artificial (IA) y aplicaciones de computación de alto rendimiento (HPC). Las Hopper GPU se fabrican por TSMC con tecnología de 4 nanómetros y cuentan con 80 000 millones de transistores, lo que las sitúa entre las tarjetas gráficas más avanzadas del mercado.

Con la arquitectura Hopper, NVIDIA combina la última generación de núcleos Tensor con cinco innovaciones clave: Transformer Engine, NVLink/NVSwitch/NVLink Switch, computación confidencial, GPU de múltiples instancias (MIG) de segunda generación y las instrucciones DPX. Gracias a estas tecnologías, las Hopper GPU logran hasta 30 veces más velocidad en tareas de inferencia de IA en comparación con la generación anterior (según pruebas basadas en el chatbot Megatron 530B de NVIDIA, el modelo de lenguaje generativo más grande del mundo).

Las funciones innovadoras de las Hopper GPU

Las Hopper GPU incorporan diversas funciones avanzadas que mejoran el rendimiento, la eficiencia y la escalabilidad. A continuación, presentamos las principales innovaciones:

  • Transformer Engine: esta tecnología permite entrenar modelos de inteligencia artificial hasta nueve veces más rápido. En tareas de inferencia con modelos de lenguaje, las Hopper GPU alcanzan una aceleración de hasta 30 veces en comparación con la generación anterior.
  • NVLink Switch System: la cuarta generación de NVLink proporciona un ancho de banda bidireccional de 900 GB/s entre GPU, mientras que NVSwitch mejora la escalabilidad de los clústeres H200. Esto permite procesar modelos de IA con billones de parámetros de forma eficiente.
  • Computación confidencial: la arquitectura Hopper garantiza la seguridad de los datos, modelos de IA y algoritmos incluso durante su procesamiento.
  • GPU de múltiples instancias (MIG) 2.0: la segunda generación de esta tecnología permite dividir una Hopper GPU en hasta siete instancias aisladas, permitiendo que múltiples usuarios ejecuten cargas de trabajo simultáneamente sin interferencias.
  • Instrucciones DPX: estas instrucciones optimizan el procesamiento de algoritmos programados dinámicamente y alcanzan una velocidad hasta siete veces mayor que con las GPU de arquitectura Ampere.
Nota

En nuestro artículo “Comparación de GPU para servidores” analizamos los mejores procesadores gráficos para tu servidor. Además, en la Digital Guide encontrarás toda la información sobre los servidores con GPU.

¿Para qué sirven las Hopper GPU?

Las GPU de NVIDIA basadas en la arquitectura Hopper están diseñadas para cargas de trabajo de alto rendimiento en diversas áreas. Sus principales aplicaciones incluyen:

  • Inferencia de IA: estas GPU se encuentran entre las soluciones líderes para la implementación de modelos de inferencia de inteligencia artificial. Son ideales para sistemas de recomendación en comercio electrónico, diagnóstico médico o predicciones en tiempo real para la conducción autónoma, ya que pueden procesar grandes volúmenes de datos de forma rápida y eficiente.
  • Inteligencia artificial generativa: las Hopper GPU proporcionan la potencia de cálculo necesaria para entrenar y ejecutar herramientas de IA generativa. Gracias al procesamiento en paralelo, facilitan cálculos más eficientes en la generación de texto, imágenes y vídeos.
  • Entrenamiento de aprendizaje profundo: su alto rendimiento computacional las hace ideales para entrenar grandes redes neuronales. La arquitectura Hopper reduce significativamente los tiempos de entrenamiento de modelos de IA.
  • IA conversacional: gracias a su optimización para el procesamiento del lenguaje natural (NLP), las Hopper GPU son ideales para sistemas de conversación basados en IA, como asistentes virtuales y chatbots de IA. Aceleran el procesamiento de modelos avanzados y garantizan interacciones fluidas que pueden integrarse en procesos empresariales, como la atención al cliente.
  • Análisis de datos y big data: estas GPU pueden manejar enormes volúmenes de datos a gran velocidad y acelerar cálculos complejos mediante procesamiento masivo en paralelo. Esto permite a las empresas analizar datos masivos o big data con mayor rapidez para realizar predicciones y tomar decisiones estratégicas.
  • Ciencia e investigación: al estar diseñadas para aplicaciones de computación de alto rendimiento (HPC), las Hopper GPU son perfectas para las simulaciones y los cálculos complejos. Se utilizan en campos como la astrofísica, la modelización climática y la química computacional.

Modelos actuales de NVIDIA

NVIDIA ha lanzado al mercado dos GPU basadas en la arquitectura Hopper: la NVIDIA H100 y la NVIDIA H200. Por otra parte, la NVIDIA A30 sigue utilizando la arquitectura Ampere. La H200, sin embargo, no es un modelo completamente nuevo, sino una evolución de la H100. A continuación, comparamos sus principales diferencias:

  • Memoria y ancho de banda: la NVIDIA H100 cuenta con 80 GB de memoria HBM3, mientras que la H200 incorpora 141 GB de memoria HBM3e. Además, la H200 ofrece una mayor anchura de banda de 4,8 TB/s frente a los 2 TB/s de la H100.
  • Rendimiento en inferencia de IA: la NVIDIA H200 duplica el rendimiento en inferencia para modelos como LLaMA 2-70B, lo que permite una mayor velocidad de procesamiento y una escalabilidad más eficiente.
  • Aplicaciones HPC y cálculos científicos: la H100 ya ofrece un rendimiento excepcional en cálculos complejos, pero la H200 la supera con una velocidad de inferencia hasta el doble de rápida y un rendimiento en HPC un 20 % superior.
¿Le ha resultado útil este artículo?
Ir al menú principal