Nvidia domine le secteur de l’IA avec son nouveau Blackwell B200 • Révélation des performances • Analyse des résultats • Comparaison avec H100 • Détails à connaître
Le nouveau processeur Blackwell B200 de Nvidia offre des performances exceptionnelles, selon les premiers résultats publiés par MLPerf 4.1. Comparé à son prédécesseur H100 basé sur l’architecture Hopper, le GPU Blackwell offre jusqu’à quatre fois plus de performances, ce qui confirme la position de leader de Nvidia dans le domaine du matériel AI.
Résultats impressionnants
Les données de Nvidia indiquent qu’un GPU Blackwell B200 basé sur un seul GPU offre 10 755 jetons/seconde dans un test d’inférence serveur et 11 264 jetons/seconde dans un test de référence hors ligne. Comparé aux résultats du benchmark MLPerf Llama 2 70B disponibles publiquement, un système à 4 GPU Hopper H100 offre des performances similaires. Nvidia affirme donc qu’un seul processeur Blackwell est environ 3,7 à 4 fois plus rapide qu’un seul GPU Hopper H100.
Différences clés à noter
Le processeur Blackwell de Nvidia utilise la précision FP4 grâce au support de ses Tensor Cores de cinquième génération, tandis que le H100 basé sur Hopper utilise uniquement et supporte le FP8. Cette différence de format permet au Blackwell d’avoir un débit en FP4 deux fois plus important que son prédécesseur en FP8.
Nvidia compare un seul B200 à quatre GPUs H100, ce qui peut affecter la comparaison. La capacité et la bande passante mémoire sont également des facteurs critiques, avec des différences générationnelles importantes.
Performances exceptionnelles
Le GPU B200 testé dispose de 180 Go de mémoire HBM3E, tandis que le H100 a 80 Go de HBM (jusqu’à 96 Go dans certaines configurations), et le H200 dispose de 96 Go de HBM3 et jusqu’à 144 Go de HBM3E. En comparaison, un H200 avec 96 Go de mémoire HBM3 n’atteint que 3 114 jetons/seconde en mode hors ligne.
Les différences en termes de format de nombre, de nombre de GPU et de capacité de mémoire jouent un rôle dans le chiffre “jusqu’à 4 fois plus rapide”. Le B200 étant une nouvelle puce avec une architecture plus récente, ces différences impactent directement ses performances.
Résumé
Au final, le chip H200 de Nvidia avec 141 Go de mémoire HBM3E se démarque également par d’excellentes performances, surpassant le H100 dans de nombreux tests où la capacité mémoire GPU est cruciale. Pour le moment, les performances du B200 de Nvidia ont été partagées uniquement pour le benchmark MLPerf 4.1 AI sur le modèle Llama 2 70B, et il reste à voir comment il se comportera dans les autres tests de MLPerf 4.1.
Source : www.tomshardware.com