Empfohlen, 2024

Die Wahl des Herausgebers

Server mit Nvidias Tesla P100 GPU werden nächstes Jahr ausgeliefert

Nvidia GPU Servers - DIY GTX Gaming Servers, Tesla Media Servers, Pascal Pro Servers 1U 2U 4U Option

Nvidia GPU Servers - DIY GTX Gaming Servers, Tesla Media Servers, Pascal Pro Servers 1U 2U 4U Option
Anonim

Dell, Hewlett Packard Enterprise, Cray und IBM werden Bestellungen für Server mit der Tesla P100 im vierten Quartal dieses Jahres, Nvidia CEO Jen-Hsun Huang sagte während einer Keynote bei der GPU Technology Conference in San Jose, Kalifornien.

Die Server werden im ersten Quartal des nächsten Jahres Versand starten, sagte Huang Dienstag .

[Weiterführende Literatur: Beste Grafikkarten für PC-Spiele]

Die GPU wird auch an Unternehmen ausgeliefert, die Hyper-Scale-Server intern und dann in ausgelagerten Fertigungsstätten entwickeln. Bis Ende des Jahres werde es für unternehmenseigene "Cloud-Server" verfügbar sein, so Huang.

Nvidia zielt auf die GPUs bei Deep-Learning-Systemen ab, bei denen Algorithmen bei der Korrelation und Klassifizierung von Daten helfen. Diese Systeme könnten autonomen Autos, Robotern und Drohnen dabei helfen, Objekte zu identifizieren. Das Ziel ist, die Lernzeit solcher Systeme zu beschleunigen, so dass die Genauigkeit der Ergebnisse im Laufe der Zeit verbessert wird.

Nvidias GPUs werden heute in Supercomputern häufig verwendet. Laut einer von Top500.org zusammengestellten Liste verwenden zwei der zehn schnellsten Supercomputer der Welt Nvidia-GPUs.

Der Tesla P100 basiert auf Nvidias neuer Pascal-Architektur. Viele neue Funktionen könnten der GPU dabei helfen, die allgemeine Serverleistung zu verbessern.

Die GPU hat 15 Milliarden Transistoren und ihre Gleitkomma-Leistung liegt bei 21,2 Teraflops.

Der Chip wurde mit dem 16-Nanometer-FinFET-Prozess hergestellt. Chips stapeln sich übereinander, so dass Nvidia weitere Funktionen nutzen kann.

Der Tesla P100 verfügt über einen HBM2-Speicher (High-Bandwidth Memory 2) mit einer Bandbreite von 256 GBps (Gigabyte pro Sekunde), was zwei Mal schneller ist Vorgänger, HBM.

Eine neue NVLink-Schnittstelle kann Daten mit 160 Gbps (Bits pro Sekunde) übertragen, was fünfmal schneller ist als bei PCI-Express.

Es bleiben jedoch Fragen dazu, wie die Server in NVLink passen. IBM hat gesagt, dass seine Power-Architektur NVLink unterstützen wird, aber Server mit Intel-Chips verwenden PCI-Express, um GPUs an Motherboards anzuschließen.

Auf der Konferenz zeigte Nvidia jedoch einen Supercomputer namens DGX-1 auf Intel Xeon-Chips mit die Tesla P100 GPU.

Top