Künstliche IntelligenzTechnikTechnik News

Blackwell B200 und GB200: Nvidia präsentiert neuen KI “Superchip”

Zuletzt aktualisiert am 19. März 2024 von Luca Koch

Nvidia, bekannt für seine führende Position im Bereich der KI-Chips, hat erneut einen bedeutenden Durchbruch erzielt, der das Unternehmen möglicherweise noch wertvoller macht als Tech-Giganten wie Alphabet und Amazon. Die Vorstellung des neuen Blackwell B200 GPU und des GB200 “Superchips” könnte Nvidias Vorsprung in diesem hochkompetitiven Markt weiter ausbauen.

Der neue Blackwell B200 GPU und GB200 Superchip

Während eines Livestreams auf der GPU Technology Conference hielt Nvidia CEO Jensen Huang stolz den neuen Blackwell B200 GPU in der einen Hand und den bisherigen H100 in der anderen. Der B200 GPU bietet beeindruckende 20 Petaflops FP4-Rechenleistung, ermöglicht durch seine 208 Milliarden Transistoren. Noch beeindruckender ist der GB200 Superchip, der zwei B200 GPUs mit einem Grace CPU kombiniert, um eine 30-fache Leistungssteigerung für LLM-Inferenz-Workloads zu erzielen, bei gleichzeitiger drastischer Reduktion von Kosten und Energieverbrauch im Vergleich zum H100.

Siehe auch  Erweiterung der SharePlay-Funktionen in Apple Music mit iOS 17.3 und 17.4

Die Effizienz des neuen Systems ist bemerkenswert: Während für das Training eines 1,8 Billionen Parametermodells bisher 8.000 Hopper GPUs und 15 Megawatt Leistung erforderlich waren, benötigen 2.000 Blackwell GPUs dafür nun lediglich vier Megawatt. Auch bei Benchmark-Tests mit GPT-3 LLM, das 175 Milliarden Parameter umfasst, zeigt der GB200 eine siebenfach höhere Leistung als der H100.

GTC March 2024 Keynote with NVIDIA CEO Jensen Huang

Technologische Innovationen und Zukunftsaussichten

Nvidia hat nicht nur die Rechenleistung und Energieeffizienz seiner Chips verbessert, sondern auch die Kommunikation zwischen den GPUs optimiert. Ein neuer NVLink-Switch ermöglicht es, dass 576 GPUs mit einer bidirektionalen Bandbreite von 1,8 Terabyte pro Sekunde miteinander kommunizieren können. Darüber hinaus ermöglicht das NVL72-Design, das 36 CPUs und 72 GPUs in einem einzigen, flüssigkeitsgekühlten Rack vereint, eine atemberaubende Rechenleistung von bis zu 1,4 Exaflops für Inferenzen.

Siehe auch  Apple Arcade: Preiserhöhung als Indiz für neuen Streaming-Spieleservice ?

Mit diesen Neuerungen adressiert Nvidia insbesondere Großkunden, die diese Technologie in Rechenzentren nutzen möchten. Unternehmen wie Amazon, Google, Microsoft und Oracle planen bereits, diese Racks in ihren Cloud-Services anzubieten. Zudem skaliert Nvidia seine Systeme für den Einsatz von Zehntausenden dieser GB200 Superchips, die mit 800Gbps Networking verbunden werden können.

Während die heutigen Ankündigungen hauptsächlich den Bereich der KI und des GPU-Computings betreffen, könnten die Innovationen im Blackwell GPU-Architektur auch zukünftige Generationen von Nvidias Gaming-Grafikkarten beeinflussen. Doch aktuelle Neuigkeiten zu Gaming-GPUs bleiben abzuwarten, da der Fokus der Konferenz eindeutig auf der KI-Technologie liegt.

Dieses Video wird dir auch gefallen!

Autor

  • Luca Koch

    Luca Koch ist als Redakteur für das Magazin Elektronik Informationen tätig und hat sich auf das Thema Künstliche Intelligenz spezialisiert, schreibt jedoch auch über andere Technik-Themen.

    Alle Beiträge ansehen
Siehe auch  Neues Kalender-Feature in iOS 18 und macOS 15
Avatar-Foto

Luca Koch

Luca Koch ist als Redakteur für das Magazin Elektronik Informationen tätig und hat sich auf das Thema Künstliche Intelligenz spezialisiert, schreibt jedoch auch über andere Technik-Themen.