Wir werden von Lesern unterstützt, wenn Sie über Links auf unserer Website klicken und kaufen, verdienen wir eine Affiliate-Provision. Mehr erfahren.

Intel Sapphire Rapid-SP Xeon-CPUs mit bis zu 64 GB HBM2e-Speicher, spricht auch über Next-Gen-Xeon- und Rechenzentrums-GPUs für 2023+

Auf der SC21 (Supercomputing 2021) veranstaltete Intel eine kurze Sitzung, in der sie diskutiert ihre Roadmap für Rechenzentren der nächsten Generation und sprach über ihre kommenden Ponte Vecchio GPUs und die Sapphire Rapids-SP Xeon CPUs.

Intel spricht auf der SC21 über Sapphire Rapids-SP Xeon-CPUs und Ponte Vecchio-GPUs

Intel hatte bereits bei Hot Chips 33 die meisten technischen Details zu seiner CPU- und GPU-Reihe für Rechenzentren der nächsten Generation besprochen. Sie bekräftigen, was sie gesagt haben, und enthüllen auch einige weitere Leckerbissen bei SuperComputing 21.

Die aktuelle Generation der skalierbaren Intel Xeon-Prozessoren wurde von unseren HPC-Ökosystempartnern weitgehend übernommen, und wir fügen mit Sapphire Rapids – unserem skalierbaren Xeon-Prozessor der nächsten Generation, der derzeit bei Kunden bemustert wird – neue Funktionen hinzu. Diese Plattform der nächsten Generation bietet Multifunktionen für das HPC-Ökosystem und bietet mit HBM2e zum ersten Mal einen integrierten Speicher mit hoher Bandbreite, der die Sapphire Rapids Multi-Tile-Architektur nutzt. Sapphire Rapids bietet außerdem verbesserte Leistung, neue Beschleuniger, PCIe Gen 5 und andere aufregende Funktionen, die für KI, Datenanalyse und HPC-Workloads optimiert sind.

HPC-Workloads entwickeln sich schnell weiter. Sie werden vielfältiger und spezialisierter und erfordern einen Mix heterogener Architekturen. Obwohl die x86-Architektur weiterhin das Arbeitspferd für skalare Workloads ist, müssen wir uns kritisch anschauen, wie HPC-Workloads innerhalb von Vektor-, Matrix- und räumlichen Architekturen ausgeführt werden, wenn wir Leistungssteigerungen in Größenordnungen erzielen und die Exascale-Ära überwinden wollen. Wir müssen sicherstellen, dass diese Architekturen nahtlos zusammenarbeiten.Intel hat eine Strategie der „gesamten Arbeitslast“ verfolgt, bei der arbeitslastspezifische Beschleuniger und Grafikprozessoren (GPU) sowohl aus Hardware- als auch aus Softwaresicht nahtlos mit Zentraleinheiten (CPU) zusammenarbeiten können.

Wir setzen diese Strategie mit unseren skalierbaren Intel Xeon-Prozessoren der nächsten Generation und Intel Xe HPC-GPUs (Codename „Ponte Vecchio“) ein, die den 2-Exaflop-Supercomputer Aurora im Argonne National Laboratory antreiben werden. Ponte Vecchio hat die höchste Rechendichte pro Socket und pro Knoten und packt 47 Kacheln mit unseren fortschrittlichen Verpackungstechnologien: EMIB und Foveros. Auf Ponte Vecchio laufen über 100 HPC-Anwendungen. Wir arbeiten auch mit Partnern und Kunden wie ATOS, Dell, HPE, Lenovo, Inspur, Quanta und Supermicro zusammen, um Ponte Vecchio in ihren neuesten Supercomputern einzusetzen.

über Intel

Intel Sapphire Rapids-SP Xeon Rechenzentrums-CPUs

Laut Intel wird es den Sapphire Rapids-SP in zwei Paketvarianten geben, einer Standard- und einer HBM-Konfiguration. Die Standardvariante wird ein Chiplet-Design aus vier XCC-Dies mit einer Die-Größe von rund 400 mm2 aufweisen. Dies ist die Die-Größe für einen einzelnen XCC-Die und es werden insgesamt vier auf dem oberen Sapphire Rapids-SP Xeon-Chip sein. Jeder Chip wird über EMIB mit einer Rastergröße von 55u und einem Kernraster von 100u miteinander verbunden.

Der standardmäßige Sapphire Rapids-SP Xeon-Chip wird über 10 EMIB-Verbindungen verfügen und das gesamte Gehäuse misst mächtige 4446 mm2. Beim Übergang zur HBM-Variante erhalten wir eine erhöhte Anzahl von Interconnects, die auf 14 sitzen und benötigt werden, um den HBM2E-Speicher mit den Kernen zu verbinden.

Die vier HBM2E-Speicherpakete werden über 8-Hi-Stacks verfügen, sodass Intel mindestens 16 GB HBM2E-Speicher pro Stack für insgesamt 64 GB im gesamten Sapphire Rapids-SP-Paket vorsieht. Apropos Paket: Die HBM-Variante misst wahnsinnige 5700 mm2 oder 28% größer als die Standardvariante. Im Vergleich zu den kürzlich durchgesickerten EPYC-Genua-Zahlen würde das HBM2E-Paket für Sapphire Rapids-SP um 5 % größer, während das Standardpaket 22 % kleiner ausfallen wird.

  • Intel Sapphire Rapids-SP Xeon (Standardpaket) – 4446mm2
  • Intel Sapphire Rapids-SP Xeon (HBM2E-Paket) – 5700mm2
  • AMD EPYC Genua (12 CCD-Paket) – 5428mm2

Intel gibt auch an, dass der EMIB-Link im Vergleich zu Standard-Gehäusedesigns eine doppelt so hohe Bandbreitendichte und eine viermal bessere Energieeffizienz bietet. Interessanterweise nennt Intel die neueste Xeon-Reihe logisch monolithisch, was bedeutet, dass sie sich auf die Verbindung beziehen, die die gleiche Funktionalität wie ein Single-Die bietet, aber technisch gesehen gibt es vier Chiplets, die miteinander verbunden werden. Sie können die vollständigen Details zu den standardmäßigen 56-Kern- und 112-Thread-Sapphire-Rapids-SP-Xeon-CPUs hier lesen.

Intel Xeon SP-Familien:

FamilienbrandingSkylake-SPCascade Lake-SP/APCooper Lake-SPEissee-SPSaphir StromschnellenSmaragdgrüne StromschnellenGranit StromschnellenDiamant-Stromschnellen
Prozessknoten14nm+14nm++14nm++10nm+Intel 7Intel 7Intel 4Intel3?
PlattformnameIntel PurleyIntel PurleyIntel ZederninselIntel WhitleyIntel Eagle-StreamIntel Eagle-StreamIntel Mountain Stream
Intel Birkenstrom
Intel Mountain Stream
Intel Birkenstrom
MCP (Multi-Chip Package)-SKUsNeinJawohlNeinNeinJawohlnoch offenTBD (möglicherweise ja)TBD (möglicherweise ja)
SteckdoseLGA 3647LGA 3647LGA 4189LGA 4189LGA 4677LGA 4677LGA 4677noch offen
Maximale KernanzahlBis zu 28Bis zu 28Bis zu 28Bis 40Bis zu 56Bis zu 64?Bis zu 120?noch offen
Max. Thread-AnzahlBis zu 56Bis zu 56Bis zu 56Bis zu 80Bis zu 112Bis zu 128?Bis zu 240?noch offen
Max. L3-Cache38,5 MB L338,5 MB L338,5 MB L360 MB L3105 MB L3120 MB L3?noch offennoch offen
SpeicherunterstützungDDR4-2666 6-KanalDDR4-2933 6-KanalBis zu 6-Kanal DDR4-3200Bis zu 8-Kanal DDR4-3200Bis zu 8-Kanal DDR5-4800Bis zu 8-Kanal DDR5-5600?noch offennoch offen
Unterstützung der PCIe-GenerationPCIe 3.0 (48 Lanes)PCIe 3.0 (48 Lanes)PCIe 3.0 (48 Lanes)PCIe 4.0 (64 Lanes)PCIe 5.0 (80 Lanes)PCIe 5.0PCIe 6.0?PCIe 6.0?
TDP-Bereich140W-205W165W-205W150W-250W105-270WBis zu 350WBis zu 350Wnoch offennoch offen
3D Xpoint Optane DIMMN / AApache-PassBarlowpassBarlowpassKrähenpassKrähenpass?Donahue-Pass?Donahue-Pass?
WettbewerbAMD EPYC Neapel 14nmAMD EPYC Rom 7nmAMD EPYC Rom 7nmAMD EPYC Mailand 7nm+AMD EPYC Genua ~5nmAMD Next-Gen EPYC (nach Genua)AMD Next-Gen EPYC (nach Genua)AMD Next-Gen EPYC (nach Genua)
Start201720182020202120222023?2024?2025?

Intel Ponte Vecchio Rechenzentrum-GPUs

Beim Wechsel zu Ponte Vecchio skizzierte Intel einige Hauptmerkmale seiner Flaggschiff-GPU für Rechenzentren wie 128 Xe-Kerne, 128 RT-Einheiten, HBM2e-Speicher und insgesamt 8 Xe-HPC-GPUs, die miteinander verbunden werden. Der Chip wird über bis zu 408 MB L2-Cache in zwei separaten Stapeln verfügen, die über die EMIB-Verbindung verbunden werden. Der Chip wird über mehrere Dies verfügen, die auf Intels eigenem ‚Intel 7‘-Prozess und den N7 / N5-Prozessknoten von TSMC basieren.

Intel hat zuvor auch die Gehäuse- und Die-Größe seines Flaggschiffs Ponte Vecchio GPU auf Basis der Xe-HPC-Architektur detailliert beschrieben. Der Chip besteht aus 2 Kacheln mit 16 aktiven Würfeln pro Stapel. Die maximale aktive obere Die-Größe wird 41 mm2 betragen, während die Basis-Die-Größe, die auch als „Rechenkachel“ bezeichnet wird, bei 650 mm2 liegt.

Die Ponte Vecchio GPU verwendet 8 HBM 8-Hi Stacks und enthält insgesamt 11 EMIB-Interconnects. Das gesamte Intel Ponte Vecchio-Paket würde 4843,75 mm2 messen. Es wird auch erwähnt, dass der Bump-Pitch für Meteor Lake-CPUs mit High-Density 3D Forveros-Packaging 36u betragen wird.

Abgesehen davon hat Intel auch eine Roadmap veröffentlicht, in der bestätigt wird, dass die nächste Generation der Xeon Sapphire Rapids-SP-Familie und die Ponte Vecchio-GPUs 2022 verfügbar sein werden, aber es gibt auch die Produktlinie der nächsten Generation, die für 2023 und darüber hinaus geplant ist . Intel hat nicht ausdrücklich gesagt, was es zu bringen plant, aber wir wissen, dass der Nachfolger von Sapphire Rapids als Emerald und Granite Rapids bekannt sein wird und der Nachfolger davon als Diamond Rapids bekannt sein wird.

Auf der GPU-Seite wissen wir nicht, wie der Nachfolger von Ponte Vecchio bekannt sein wird, erwarten jedoch, dass er mit NVIDIAs und AMDs GPUs der nächsten Generation für den Rechenzentrumsmarkt konkurrieren wird.

Für die Zukunft bietet Intel mehrere Lösungen der nächsten Generation für fortschrittliche Gehäusedesigns wie Forveros Omni und Forveros Direct, die in die Angstrom-Ära der Transistorentwicklung eintreten.

GPU-Beschleuniger für Rechenzentren der nächsten Generation

GPU-NameAMD Instinct MI200NVIDIA Hopper GH100Intel Xe HPC
Flaggschiff-ProduktAMD Instinct MI250XNVIDIA H100Intel Ponte Vecchio
VerpackungsdesignMCM (Unendlichkeitsgewebe)MCM (NVLINK)MCM (EMIB + Forveros)
GPU-ArchitekturAldebaran (CDNA 2)Trichter GH100Xe-HPC
GPU-Prozessknoten6nm5nm?7nm (Intel 4)
GPU-Kerne14.08018.432?32.768?
GPU-Taktgeschwindigkeit1700 MHzTBATBA
L2/L3-Cache2 x 8 MBTBA2 x 204 MB
FP16-Berechnung383 TOPsTBATBA
FP32-Berechnung95,7 TFLOPSTBA~45 TFLOPs (A0 Silizium)
FP64-Berechnung47,9 TFLOPSTBATBA
Speicherkapazität128 GB HBM2E128GB HBM2E?TBA
Speicheruhr3,2 Gbit/sTBATBA
Speicherbus8192-Bit8192-Bit?8192-Bit
Speicherbandbreite3,2 TB/s~2,5 TB/s?5 TB/s
FormfaktorDual Slot, volle Länge / OAMDual Slot, volle Länge / OAMOAM
KühlungPassive Kühlung
Flüssigkeitskühlung
Passive Kühlung
Flüssigkeitskühlung
Passive Kühlung
Flüssigkeitskühlung
TDP4. Quartal 20212H 20222022-2023?