Samsung startet Massenproduktion von AI-Memory und plant SK Hynix zu überholen
Zuletzt aktualisiert am 28. Juni 2023 von Marina Meier
Samsung sieht in Memory-Halbleitern die Zukunft des AI-Supercomputing bis zum Ende des Jahrzehnts. Das Unternehmen setzt darauf, dass Memory-Chips in Serveranwendungen für künstliche Intelligenz die GPUs von Nvidia übertreffen werden. Vor ein paar Monaten äußerte Kye Hyun Kyung die Überzeugung, dass “Supercomputer, die auf Memory-Semiconductoren basieren, bis 2028 realisiert werden können”. Nun bereitet sich Samsung laut Berichten darauf vor, High-Bandwidth Memory (HBM) Chips für AI-Anwendungen noch in diesem Jahr in Massen zu produzieren.
Samsung plant Massenproduktion von HBM-Chips für künstliche Intelligenz
Laut koreanischen Medienberichten plant Samsung, HBM-Chips für AI in der zweiten Hälfte des Jahres 2023 in Massen zu produzieren und aufzuholen zu SK Hynix, das zuletzt schnell die Führung auf dem Markt für AI-Memory-Halbleitern übernommen hat.
Im Jahr 2022 hatte SK Hynix in etwa 50% Marktanteil am HBM-Markt, während Samsung etwa 40% hielt, so TrendForce (via The Korea Times). Micron machte die restlichen 10% aus. Allerdings ist der HBM-Markt insgesamt nicht so weit verbreitet und macht nur etwa 1% des gesamten DRAM-Segments aus.
Steigende Nachfrage nach HBM-Lösungen erwartet
Trotzdem wird erwartet, dass die Nachfrage nach HBM-Lösungen steigen wird, da der AI-Markt wächst. Samsung beabsichtigt nun, mit SK Hynix aufzuholen und seine HBM3-Chips in Erwartung dieser Marktentwicklungen in Massen zu produzieren. Unabhängig davon, ob der Begriff “AI” inzwischen ein Buzzword geworden ist, nehmen AI-Server immer mehr zu und High-Bandwidth Memory-Lösungen gewinnen an Zugkraft.
Die HBM3-Lösung von Samsung stapelt vertikal mehrere DRAM-Chips und hat Kapazitäten von 16GB und 24GB. Die HBM3-Chips können Geschwindigkeiten von bis zu 6.4Gbps erreichen.