Technologie

Nvidia H100-Chip vorgestellt, angepriesen als „Motor“ der KI-Infrastruktur


Die Grafikchips (GPU) von Nvidia, die ursprünglich dazu beigetragen haben, die Qualität von Videos auf dem Gaming-Markt voranzutreiben und zu verbessern, sind zu den dominierenden Chips geworden, die Unternehmen für KI-Workloads verwenden. Die neueste GPU namens H100 kann dazu beitragen, die Rechenzeiten für einige Arbeiten, die das Training von KI-Modellen betreffen, von Wochen auf Tage zu verkürzen, sagte das Unternehmen.

Die Ankündigungen wurden auf der KI-Entwicklerkonferenz von Nvidia online gemacht.

„Rechenzentren werden zu KI-Fabriken, die Berge von Daten verarbeiten und verfeinern, um Intelligenz zu produzieren“, sagte er NVIDIA Chief Executive Officer Jensen Huang nannte in einer Erklärung den H100-Chip den „Motor“ der KI-Infrastruktur.

Unternehmen nutzen KI und maschinelles Lernen für alles, von der Empfehlung des nächsten Videos bis hin zur Entdeckung neuer Medikamente, und die Technologie wird zunehmend zu einem wichtigen Werkzeug für Unternehmen.

Der H100-Chip wird weiter produziert Taiwan Manufacturing Semiconductor Company hochmoderner Vier-Nanometer-Prozess mit 80 Milliarden Transistoren und wird im dritten Quartal verfügbar sein, sagte Nvidia.

Der H100 wird auch zum Bau von Nvidias neuem Supercomputer „Eos“ verwendet, der nach Angaben von Nvidia das schnellste KI-System der Welt sein wird, wenn er später in diesem Jahr in Betrieb geht.

Facebook Elternteil Meta kündigte im Januar an, in diesem Jahr den schnellsten KI-Supercomputer der Welt zu bauen und eine Leistung von fast 5 Exaflops zu erzielen. Nvidia sagte am Dienstag, sein Supercomputer werde mit über 18 Exaflops laufen.

Die Exaflop-Leistung ist die Fähigkeit, 1 Trillion – oder 1.000.000.000.000.000.000 – Berechnungen pro Sekunde durchzuführen.

Nvidia führte auch einen neuen Prozessorchip (CPU) namens Grace CPU Superchip ein, der auf der Arm-Technologie basiert. Es ist der erste neue Chip von Nvidia, der die ARM-Architektur verwendet, der seit dem Kaufvertrag des Unternehmens angekündigt wird Arm fiel im vergangenen Monat aufgrund regulatorischer Hürden auseinander.

Der Grace CPU Superchip, der in der ersten Hälfte des nächsten Jahres verfügbar sein wird, verbindet zwei CPU-Chips und wird sich auf KI und andere Aufgaben konzentrieren, die intensive Rechenleistung erfordern.

Immer mehr Unternehmen verbinden Chips mithilfe von Technologien, die einen schnelleren Datenfluss zwischen ihnen ermöglichen. Früher in diesem Monat Apfel stellte seinen M1 Ultra-Chip vor, der zwei M1 Max-Chips verbindet.

Nvidia sagte, die beiden CPU-Chips seien mit seiner NVLink-C2C-Technologie verbunden, die ebenfalls am Dienstag vorgestellt wurde.

Nvidia, das seine selbstfahrende Technologie entwickelt und dieses Geschäft ausgebaut hat, sagte, es habe diesen Monat mit der Auslieferung seines autonomen Fahrzeugcomputers „Drive Orin“ und dieses chinesischen Elektrofahrzeugherstellers begonnen BYD und Hersteller von Luxus-Elektroautos Klar verwenden würde Nvidia-Laufwerk für ihre Flotten der nächsten Generation.

Danny Shapiro, Vice President Automotive von Nvidia, sagte, dass in den nächsten sechs Jahren ein Automobilgeschäft im Wert von 11 Milliarden US-Dollar (rund 83.827 Mrd. Rupien) in der „Pipeline“ sei, gegenüber 8 Milliarden US-Dollar (etwa 60.970 Millionen Rupien), die prognostiziert wurden letztes Jahr. Das Wachstum der erwarteten Einnahmen wird von Hardware und von steigenden, wiederkehrenden Einnahmen aus Nvidia-Software kommen, sagte Shapiro.

Nvidia-Aktien blieben im Mittagshandel relativ flach.

© Thomson Reuters 2022




Source link

Ähnliche Artikel

Schaltfläche "Zurück zum Anfang"
%d Bloggern gefällt das: