AMD bat Intel pour DDR5, PCIe 5.0 dans le centre de données Epyc 4 • S’inscrire

Le statut d’AMD en tant que retardataire derrière Intel a été élevé. Le fabricant de puces a réussi à devancer son rival Intel cette semaine avec le lancement de ses processeurs Epyc “Genoa” de quatrième génération.

La dernière évolution de la plate-forme de serveur d’AMD augmente non seulement le nombre de cœurs à 96 et la vitesse d’horloge à 4,4 GHz, mais surpasse également le Sapphire Rapids d’Intel en tant que premier processeur x86 du centre de données avec prise en charge de DDR5, PCIe 5.0 et Compute. Normes de liaison express (CXL).

Les processeurs sont basés sur la même microarchitecture Zen 4 et les mêmes nœuds de processus TSMC 5 nm que nous avons vus dans les puces de bureau Ryzen 7000 d’AMD plus tôt cette année. Cela contribue à une amélioration de 14 % des instructions par horloge (IPC) par rapport à Zen 3, selon AMD Fellow et créateur de Zen, Mike Clark.

Cependant, les gains IPC ne sont qu’une partie de l’histoire. Outre un nombre de cœurs et des vitesses d’horloge plus élevés, ses processeurs phares Epyc 4 à 96 cœurs sont deux fois plus rapides que les composants Milan à 64 cœurs de l’année dernière dans une variété d’applications informatiques hautes performances dans le cloud, déclare Ram Peddibhot, vice-président d’Epyc chez AMD. gestion des produits. HPC) et des benchmarks d’entreprise. Comme toujours, nous vous recommandons de prendre ces allégations avec un grain de sel sain.

Plus de cœurs, consommation d’énergie plus élevée

Un coup d’œil sous le dissipateur de chaleur désormais plus grand du Genuya – oui, il y a aussi une nouvelle prise – montre comment AMD a réussi à entasser autant de cœurs dans un seul paquet. Vous l’avez deviné, plus de chiplets.

Le plus grand boîtier laisse de la place pour quatre Core Complex Dies (CCD) supplémentaires, ce qui porte le total à 12. Cependant, l’architecture de base réelle de ces chiplets reste largement inchangée par rapport à Milan, les huit cœurs partageant entre eux 32 Mo de cache L3. Le nouveau utilise un commutateur de 7 nm de TSMC à un processus de 5 nm plus avancé et les cœurs Zen 4 d’AMD, ce qui augmente le cache L2 à 1 Mo par cœur.

AMD a également augmenté les vitesses d’horloge des puces de plusieurs centaines de mégahertz sur la carte, mais au détriment de températures plus élevées. La puissance de conception thermique (TDP) par défaut pour le cœur n’a pas beaucoup changé par rapport à la dernière génération – oscillant autour de 280 W pour les pièces à 64 cœurs d’AMD – mais maintenant les clients qui cherchent à obtenir les fréquences les plus élevées possibles de ces puces peuvent désormais les configurer. Jusqu’à 400W. Cela signifie une augmentation de la consommation électrique de 120 W par rapport au Milan.

Les TDP configurables plus élevés de Genoa ne sont pas surprenants étant donné la tendance à l’échelle de l’industrie vers des CPU et des GPU plus chauds et plus puissants au cours des dernières années. Pas plus tard que cette semaine, nous avons appris que les processeurs Sapphire Rapids empilés HBM à 56 cœurs d’Intel – désormais appelés “Intel Xeon CPU Max” – sont juste un cheveu en dessous de l’Epyc 4 9654 à 96 cœurs d’AMD à un TDP standard de 360 ​​W consommera environ 350 W. Pendant ce temps, dans l’espace GPU, des fournisseurs comme Nvidia poussent déjà une consommation d’énergie de 700 W dans un seul module SXM.

Alors qu’AMD vous dira qu’Epyc 4 presse plus de travail par watt, cela ne change rien au fait que l’enveloppe de puissance plus élevée pose un défi aux constructeurs de serveurs et aux opérateurs de centres de données chargés de trouver un moyen de dissiper toute cette chaleur. les systèmes doivent être renforcés.

Mémoire comme vous le voulez

Au-delà des performances brutes, Epyc 4 introduit un certain nombre d’améliorations de la mémoire et des E/S par rapport à Milan. Les processeurs sont les premières puces de centre de données d’AMD à prendre en charge la mémoire DDR5.

Contrairement à la technologie 14 nm de GlobalFoundry, le schéma d’E/S de Genoa, désormais basé sur le processus TSMC 6 nm, prend en charge jusqu’à 6 To de 4800 MT/s DDR5 12 canaux par emplacement. Selon AMD, lorsque les 12 canaux sont remplis de mémoire DDR5 à 4 800 MT/s, cela représente un débit de mémoire théorique maximum de 460 Go/s.

Bien sûr, même avec un module DIMM par canal remplissant tous ces canaux, cela peut être difficile, en particulier dans les systèmes traditionnels à double socket.

Genoa augmente également le nombre d’interfaces à 160 voies de PCIe 5.0 et ajoute 64 voies dédiées à CXL. 32 des voies PCIe peuvent être réservées à la connectivité SATA, tandis que les systèmes à double emplacement bénéficient de 12 voies “bonus” supplémentaires de connectivité PCIe 3.0.

En parlant de CXL, Genoa est la première plate-forme x86 à prendre en charge une interface cohérente avec le cache. Alors que les futures itérations de CXL fourniront une infrastructure entièrement convergée, les premières implémentations de la technologie se concentrent sur l’extension de la mémoire.

C’est là qu’AMD concentre son attention pour sa première incursion dans CXL. Prend en charge une version modifiée de CXL 1.1 qui prend en charge les configurations de mémoire au niveau de Genoa. Et AMD s’attend clairement à ce que CXL soit un succès dans le centre de données, car il a déjà étendu la technologie de cryptage de la mémoire utilisée dans l’informatique secrète – appelée SEV-SNP pour les modules d’extension de mémoire.

Même si AMD prend en charge CXL, cela ne signifie pas que l’écosystème est nécessairement prêt à utiliser la nouvelle technologie. Bien que certains fournisseurs tels que les laboratoires Samsung et Astera aient annoncé des modules de mémoire CXL, la norme en est encore à ses balbutiements.

Ceux qui espèrent tirer parti des accélérateurs CXL plus avancés devront attendre qu’AMD livre un processeur prenant pleinement en charge la spécification CXL 2.0, qui est requise pour des technologies telles que l’intégration de la mémoire.

Mange le déjeuner d’Intel

Alors qu’AMD peut avoir une longueur d’avance sur CXL, PCIe 5.0 et DDR5 dans le centre de données, il ne faudra pas longtemps avant qu’Intel ramène ses processeurs Xeon à la parité des fonctionnalités.

Pendant plus d’un an, Intel avait espéré battre AMD sur le marché avec son processeur Xeon Scalable de 4e génération, nommé Sapphire Rapids. Malheureusement, des retards répétés du processeur l’ont mis ainsi que le supercalculateur Aurora du Laboratoire national d’Argonne bien en retard sur le calendrier.

Avec le dernier retard plus tôt ce mois-ci, Intel s’attend à ce que le premier volume de la puce arrive sur le marché au premier trimestre 2023.

Et bien sûr, AMD n’a pas manqué l’occasion de profiter de la lutte d’Intel pour commercialiser la puce. Pointant vers les processeurs Xeon Platinum 8380 à 40 cœurs d’Intel – actuellement les plus rapides du fabricant de puces disponibles – AMD affirme que le Genoa est 2,5 à 3 fois plus rapide dans les benchmarks SPECrate 2017 à virgule flottante et à grande échelle, respectivement.

Bien sûr, c’est plus du double des cœurs par socket. Dans une comparaison clé, Peddibhotla estime que le Genoa surpasse la génération Ice Lake d’Intel de près de 50 % dans le benchmark en nombre entier de SPECrate 2017, et de 78 à 96 % dans le benchmark en virgule flottante.

Et tandis qu’Intel a un avantage sur AMD dans les charges de travail basées sur le jeu d’instructions AVX-512 pour des choses comme l’apprentissage en profondeur et l’inférence de l’IA. Avec le passage à Zen 4, AMD a comblé l’écart avec une prise en charge native des charges de travail vectorielles volumineuses.

Nous devrons donc attendre le lancement des Sapphire Rapids d’Intel au début du prochain trimestre pour avoir une meilleure idée de la façon dont les puces longtemps retardées du fabricant de puces se comparent au Gênes.

Aller plus loin… Consultez nos amis de The Next Platform pour un examen complet, les détails de configuration, les contacts et plus encore.

Au lancement, Genoa sera disponible en 18 saveurs, de 16 cœurs en bas à 96 cœurs en haut de la pile.

Comme pour les processeurs Epyc de la génération précédente, AMD proposera bon nombre de ces composants dans des configurations qui privilégient les performances par cœur, la densité de cœur ou une combinaison des deux.

Les premiers systèmes Epyc des partenaires OEM d’AMD sont disponibles à la commande aujourd’hui, les systèmes arrivant entre les mains des clients en décembre.

Il convient également de noter que Genoa n’est que le premier des quatre processeurs de centre de données basés sur Zen 4 dont le lancement est prévu l’année prochaine. Les processeurs Bergame basés sur le cloud d’AMD ramèneront le nombre de cœurs à 128, mais au détriment de caches plus petits. Ampere semble viser à s’attaquer aux 128 processeurs Core Altra Max, qui ont vu ces puces largement déployées sur des fournisseurs de cloud public, notamment Microsoft Azure, Google Cloud et Oracle Cloud Infrastructure.

AMD a également un autre Epyc en cache, nommé Genoa-X, qui devrait concurrencer directement les processeurs Xeon Max empilés HBM d’Intel, ainsi qu’une puce télécom et axée sur les bords appelée Siena, qui va après le bastion d’Intel. ®

Leave a Reply

Your email address will not be published. Required fields are marked *