Empfohlen, 2024

Die Wahl des Herausgebers

Nvidias neue Tesla GPUs packen leistungsstarke Funktionen für das Deep Learning

TESLA T4 vs RTX 2070 | Deep learning benchmark 2019

TESLA T4 vs RTX 2070 | Deep learning benchmark 2019
Anonim

Autonome Autos brauchen eine neue Art von Pferdestärke, um Objekte zu identifizieren, Hindernisse zu umgehen und die Spur zu wechseln. Die Wahrscheinlichkeit ist groß, dass sie von Grafikprozessoren in Rechenzentren oder sogar von Autostämmen kommen.

Vor diesem Hintergrund hat Nvidia zwei neue GPUs entwickelt - die Tesla P4 und P40 -, die auf der Pascal-Architektur basieren Server oder Computer, die autonome Autos fahren helfen. In den letzten Jahren waren Tesla-GPUs auf Supercomputing ausgerichtet, aber sie werden nun für Deep-Learning-Systeme optimiert, die bei der Korrelation und Klassifizierung von Daten helfen.

"Deep Learning" bezieht sich typischerweise auf eine Klasse von algorithmischen Techniken, die auf hochgradigen basieren verbundene neuronale Netze - Systeme von Knoten mit gewichteten Verbindungen untereinander.

[Lesen Sie weiter: Beste Grafikkarten für PC-Spiele]

Es gehört alles zu einem allgemeinen Trend: Denn mehr Daten werden über alle möglichen Arten in die Cloud übertragen Systeme und Geräte, durchläuft sie tiefgreifende Lernsysteme für Antworten, Kontext und Einsichten.

Facebook und Google haben zum Beispiel tiefgreifende Systeme rund um GPUs für die Bilderkennung und Verarbeitung natürlicher Sprache entwickelt. Unterdessen sagt Nvidia, dass Baidus Deep Speech 2 Spracherkennungs-Plattform um seine Tesla GPUs aufgebaut ist.

Die neuen Teslas haben die Pferdestärke, um normale GPUs zu sein. Der P40 verfügt über 3.840 CUDA-Kerne, bietet 12 Teraflops Single-Precision-Performance, verfügt über 24 GB GDDR5-Speicher und zieht 250 Watt Leistung. Der P4 verfügt über 2.560 Cores, liefert 5,5 Teraflops Single-Precision-Performance, hat 8 GB GDDR5-Speicher und kann bis zu 75 Watt Leistung aufnehmen.

Zusätzliche Deep-Learning-Funktionen wurden auf die GPUs gelegt. Schnelle GPUs bieten normalerweise eine doppelt präzise Leistung für genauere Berechnungen, aber die neuen Teslas verarbeiten auch Low-Level-Berechnungen. Jeder Kern verarbeitet einen Informationsbrocken; Diese Datenblöcke können aneinander gereiht werden, um Informationen zu interpretieren und um Antworten auf Fragen zu erhalten, zum Beispiel welche Objekte in Bildern enthalten sind oder welche Wörter von Personen gesprochen werden, die miteinander sprechen.

Tief -Learning-Systeme verlassen sich auf solche Low-Level-Berechnungen für Inferenzen vor allem, weil Berechnungen mit doppelter Genauigkeit - die genauere Ergebnisse liefern würden, aber mehr Rechenleistung erfordern - GPUs verlangsamen würden.

Anfang dieses Jahres veröffentlichte Nvidia den Tesla P100 schneller als die kommenden P4 und P40. Der P100 ist auf High-End-Server ausgerichtet und wird für die Feinabstimmung tiefsinniger neuronaler Netze verwendet.

Die neuen Tesla P4- und P40-GPUs haben Low-Level-Ganzzahl- und Gleitkomma-Verarbeitung für Deep Learning und können auch für Inferenz und Approximation auf lokaler Ebene. Die Idee ist, dass bestimmte Arten von Systemen und Autos nicht immer mit der Cloud verbunden werden können und lokal verarbeitet werden müssen.

Low-Level-Verarbeitung für Näherungen wird auch von Intel zu seinem kommenden Chip namens Knights Mill hinzugefügt , die auch für das Deep Learning entwickelt wurde.

Die Tesla P4 und P40 sind Nachfolger der Tesla M4 und M40, die letztes Jahr für die Grafikverarbeitung und Virtualisierung freigegeben wurden. Die neuen GPUs können das auch.

Der Tesla P40 wird im Oktober ausgeliefert, der P4 wird im November ausgeliefert. Die GPUs werden auf Servern von Dell, Hewlett Packard Enterprise, Lenovo, Quanta, Wistron, Inventec und Inspur verfügbar sein. Die Serveranbieter entscheiden über den Preis der GPUs.

Top