Künstliche IntelligenzTechnikTechnik News

Blackwell B200 und GB200: Nvidia präsentiert neuen KI “Superchip”

Zuletzt aktualisiert am 19. März 2024 von Luca Koch

Nvidia, bekannt für seine führende Position im Bereich der KI-Chips, hat erneut einen bedeutenden Durchbruch erzielt, der das Unternehmen möglicherweise noch wertvoller macht als Tech-Giganten wie Alphabet und Amazon. Die Vorstellung des neuen Blackwell B200 GPU und des GB200 “Superchips” könnte Nvidias Vorsprung in diesem hochkompetitiven Markt weiter ausbauen.

Der neue Blackwell B200 GPU und GB200 Superchip

Während eines Livestreams auf der GPU Technology Conference hielt Nvidia CEO Jensen Huang stolz den neuen Blackwell B200 GPU in der einen Hand und den bisherigen H100 in der anderen. Der B200 GPU bietet beeindruckende 20 Petaflops FP4-Rechenleistung, ermöglicht durch seine 208 Milliarden Transistoren. Noch beeindruckender ist der GB200 Superchip, der zwei B200 GPUs mit einem Grace CPU kombiniert, um eine 30-fache Leistungssteigerung für LLM-Inferenz-Workloads zu erzielen, bei gleichzeitiger drastischer Reduktion von Kosten und Energieverbrauch im Vergleich zum H100.

Siehe auch  Meta erklärt Verzögerung für Ende-zu-Ende-Verschlüsselung bei Messenger

Die Effizienz des neuen Systems ist bemerkenswert: Während für das Training eines 1,8 Billionen Parametermodells bisher 8.000 Hopper GPUs und 15 Megawatt Leistung erforderlich waren, benötigen 2.000 Blackwell GPUs dafür nun lediglich vier Megawatt. Auch bei Benchmark-Tests mit GPT-3 LLM, das 175 Milliarden Parameter umfasst, zeigt der GB200 eine siebenfach höhere Leistung als der H100.

GTC March 2024 Keynote with NVIDIA CEO Jensen Huang

Technologische Innovationen und Zukunftsaussichten

Nvidia hat nicht nur die Rechenleistung und Energieeffizienz seiner Chips verbessert, sondern auch die Kommunikation zwischen den GPUs optimiert. Ein neuer NVLink-Switch ermöglicht es, dass 576 GPUs mit einer bidirektionalen Bandbreite von 1,8 Terabyte pro Sekunde miteinander kommunizieren können. Darüber hinaus ermöglicht das NVL72-Design, das 36 CPUs und 72 GPUs in einem einzigen, flüssigkeitsgekühlten Rack vereint, eine atemberaubende Rechenleistung von bis zu 1,4 Exaflops für Inferenzen.

Siehe auch  Leben wir in einer Matrix? Neues physikalisches Gesetz stärkt Theorie

Mit diesen Neuerungen adressiert Nvidia insbesondere Großkunden, die diese Technologie in Rechenzentren nutzen möchten. Unternehmen wie Amazon, Google, Microsoft und Oracle planen bereits, diese Racks in ihren Cloud-Services anzubieten. Zudem skaliert Nvidia seine Systeme für den Einsatz von Zehntausenden dieser GB200 Superchips, die mit 800Gbps Networking verbunden werden können.

Während die heutigen Ankündigungen hauptsächlich den Bereich der KI und des GPU-Computings betreffen, könnten die Innovationen im Blackwell GPU-Architektur auch zukünftige Generationen von Nvidias Gaming-Grafikkarten beeinflussen. Doch aktuelle Neuigkeiten zu Gaming-GPUs bleiben abzuwarten, da der Fokus der Konferenz eindeutig auf der KI-Technologie liegt.

Avatar-Foto

Luca Koch

Luca Koch ist als Redakteur für das Magazin Elektronik Informationen tätig und hat sich auf das Thema Fernseher spezialisiert. In diesem Bereich verfügt er über umfassende Erfahrung und ein tiefes Verständnis für die technischen Details und neuesten Entwicklungen. Luca Koch legt großen Wert darauf, immer auf dem neuesten Stand der Technologie zu sein, um seinen Lesern stets aktuelle und fundierte Informationen zu liefern.