Nvidia révèle d'abord

Le PDG de Nvidia Jensen Huang a lancé la conférence sur les technologies graphiques de la société (GTC) avec un discours liminaire rempli d'annonces. La clé révèle inclure le premier processeur discret de NVIDIA, Nommé Grace, ainsi que son architecture de trémie de nouvelle génération, qui arrivera plus tard en 2022.

La GRACE CPU Superchip est la première CPU discrete de Nvidia, mais ce ne sera pas au cœur de votre prochain PC de jeu. Nvidia a annoncé la Grace CPU en 2021, mais cette Superchip, comme Nvidia l'appelle, est quelque chose de nouveau. Il met en place deux processeurs de grâce, semblables à M1 Ultra d'Apple, connectés par la technologie Nvlink de Nvidia.

Contrairement à la M1 Ultra, toutefois, la Grace Superchip n'est pas construite pour des performances générales. Le GPU de 144 CORE est construit pour A.I., Science des données et applications avec des exigences de mémoire élevées. La CPU utilise toujours les cœurs ARM, malgré une offre de 40 milliards de dollars de Nvidia pour acheter la société.

En plus de la Grace Superchip, Nvidia a montré sa prochaine architecture de trémie de génération. Ce n'est pas l'architecture alimentant le RTX 4080, selon la spéculation. Au lieu de cela, il est construit pour les accélérateurs du centre de données de NVIDIA. Nvidia débute l'architecture du GPU H100, qui remplacera le précédent A100 de Nvidia.

Nvidia CES 2022 keynote in 6 minutes: 3090 Ti and $249 RTX 3050 Nvidia appelle le H100 la "puce la plus avancée du monde". Il est construit à l'aide du processus de fabrication N4 de TSMC de Chipmaker TSMC, emballage dans un 30 milliards de transistors stupéfiants. Comme si cela ne suffisait pas, c'est aussi le premier GPU de prendre en charge la mémoire PCIe 5.0 et HBM3. Nvidia dit que 20 H100 GPUS peut «maintenir l'équivalent de l'ensemble du trafic Internet du monde», montrant la puissance de PCIe 5.0 et HBM3.

Les clients seront en mesure d'accéder au GPU via les serveurs DGX de la quatrième génération de Nvidia, qui combinent huit GPUS H100 et 640 Go de mémoire HBM3. Ces machines, selon Nvidia, fournissent 32 peflops d'A.I. Performance, qui est six fois plus portée que la dernière génération A100.

Si le DGX n'offre pas assez de puissance, Nvidia propose également son DGX H100 Superpod. Cela s'appuie sur Nvidia louer ses accélérateurs de Superpod l'année dernière, ce qui permet aux personnes sans budget des centres de données énormes d'exploiter la puissance de A.I. Cette machine combine 32 systèmes DGX H100, offrant une mémoire massive de 20 To de mémoire HBM3 et 1 exoflop d'A.I. performance.

Nvidia débute la nouvelle architecture avec son propre supercalculateur EOS, qui comprend 18 superpodes DGX H100 pour un total de 576 GPUS H100. L'activation de ce système est la quatrième génération de NVIDIA de NVLINK, qui fournit une interconnexion à bande passante élevée entre des grappes massives de GPU.

Comme le nombre de GPU augmente, Nvidia a montré que le dernier Gen A100 serait flatline. Hopper et quatrième génération NVLink n'ont pas ce problème, selon la société. Comme le nombre d'échèques GPU dans les milliers, la NVIDIA déclare que les systèmes à base de H100 peuvent fournir jusqu'à neuf fois plus vite..I. formation que les systèmes A100.

Cette architecture Next-Gen fournit des «avantages de performance changeant de jeu», selon Nvidia. Bien que passionnant pour le monde de A.I. et l'informatique hautes performances, nous sommes toujours attendus avec impatience les annonces autour du prochain RTX 4080 de Nvidia, qui est rumée à se lancer ultérieurement cette année.

Commentaires

Articles les plus consultés