NVIDIA CEO Jensen Huang startete die Grafiktechnologiekonferenz (GTC) des Unternehmens mit einer Keynote-Rede voller Ankündigungen. Der Schlüssel zeigt die erste diskrete CPU von Nvidia, genannte Gnade sowie die Trichterarchitektur der nächsten Generation, die später 2022 ankommen wird.

Die Grace CPU Superchip ist die erste diskrete CPU von Nvidia, aber es ist nicht im Herzen Ihres nächsten Gaming-PCs. Nvidia kündigte die Grace-CPU im Jahr 2021 an, aber diese Superchip, da Nvidia es ruft, ist etwas Neues. Es bringt zwei Gnade-CPUs zusammen, ähnlich wie Apples M1 Ultra, die über die NVIDIA-NVLink-Technologie verbunden ist.

Im Gegensatz zur M1-Ultra ist jedoch der Grace-Superchip nicht für allgemeine Leistung gebaut. Die 144-Core-GPU ist für A.I., Datenwissenschaft und Anwendungen mit hoher Speicheranforderungen erbaut. Die CPU nutzt immer noch Armkerne, obwohl NVIDIA, obwohl NVIDIA aufgegeben wurde, 40 Milliarden US-Dollar, um das Unternehmen zu erwerben.

Neben der Gnade-Superchip zeigte Nvidia die Trichterarchitektur der nächsten Generation. Dies ist nicht die Architektur, die den RTX 4080, je nach Spekulation, mit Strom versorgt. Stattdessen ist es für die Rechenzentren-Beschleuniger von NVIDIA gebaut. Nvidia debütiert die Architektur in der H100-GPU, die die vorherige A100 von NVIDIA ersetzen wird.

Nvidia ruft den H100 den „weltweit am stärksten fortgeschrittensten Chip“ an. Es wurde mit dem N4-Fertigungsprozess von ChipMaker TSMC aufgebaut, der sich in einer verpackenden 80-Milliarden-Transistoren verpackt. Als ob das nicht genug wäre, ist es auch die erste GPU, um den PCIe 5.0- und HBM3-Speicher zu unterstützen. Nvidia sagt, dass nur 20 H100 GPUs „das Äquivalent des gesamten Internetverkehrs der Welt aufrechterhalten kann“, zeigen Sie die Kraft von PCIe 5.0 und HBM3.

Your Gaming PC Has A Bottleneck!

Die Kunden können in der Lage sein, auf die GPU über die DGX-Server von NVIDIA zuzugreifen, die acht H100-GPUs und 640 GB HBM3-Speicher kombinieren. Diese Maschinen liefern nach NVIDIA 32 PetaFlops von A.I. Performance, das sechsmal so viel ist wie die Last-Gen’s A100.

Wenn der DGX nicht genug Strom bietet, bietet NVIDIA auch seine DGX H100 Superpod an. Dies baut auf NVIDIA im vergangenen Jahr auf NVIDIA auf, sodass diese ohne das Budget für massive Rechenzentren die Macht von A.i nutzen können. Diese Maschine kombiniert 32 DGX H100-Systeme und liefert einen massiven 20 TB HBM3-Speicher und 1 ExoFlop von A.I. Leistung.

Nvidia debütiert die neue Architektur mit einem eigenen EOS-Supercomputer, der 18 DGX H100-Superpods für insgesamt 576 H100-GPUs umfasst. Aktivieren dieses Systems ist die vierte Generation von NVIDIA nvlink, was eine hohe Bandbreitenverbindung zwischen massiven GPUs bietet.

Da die Anzahl der GPUS-Skalen auftaucht, zeigte NVIDIA, dass der Last-Gen A100 flatline wäre. Hopper und Vierth-Gen Nvlink haben laut der Gesellschaft nicht dieses Problem. Da die Anzahl der GPUs in die Tausenden in den Tausenden skaliert, sagt Nvidia, dass H100-basierte Systeme bis zu neun Mal schneller anbieten können. Training als A100-basierte Systeme.

Diese Next-Gen-Architektur bietet laut NVIDIA „spielverändernde Leistungen Vorteile“. Obwohl aufregend für die Welt von A.I. Und Hochleistungs-Computing, wir erwarten immer noch eifrig auf Ankündigungen rund um NVIDIAs Next-Gen RTX 4080, das später in diesem Jahr gestartet wird.