Selon BusinessKorea, SK Hynix a annoncé que le rendement du stockage de la bande passante élevé de la cinquième génération (HBM) - HBM3E a approché 80%.
"Nous avons réussi à réduire le temps requis pour la production de masse de puces HBM3E de 50%, atteignant un taux de rendement cible d'environ 80%", a déclaré Kwon Jae bientôt, directeur de production chez SK Hynix
Cela marque la première divulgation publique des informations de production HBM3E par SK Hynix.Auparavant, l'industrie s'attendait à ce que le rendement HBM3E de SK Hynix soit comprise entre 60% et 70%.
Kwon Jae a rapidement souligné: "Notre objectif cette année est de se concentrer sur la production de HBM3E à 8 couches. À l'ère de l'intelligence artificielle (IA), l'augmentation de la production est devenue plus importante pour maintenir une position de premier plan."
La fabrication de HBM nécessite un empilement vertical de plusieurs DRA, ce qui entraîne une complexité de processus plus élevée par rapport aux DRA standard.Surtout pour le composant clé de HBM3E, le rendement du silicium à travers les trous (TSV) a toujours été faible, allant de 40% à 60%, ce qui fait de son amélioration un défi majeur.
Après avoir fourni presque exclusivement HBM3 au chef de semi-conducteur de l'IA Nvidia, SK Hynix a commencé à fournir des produits HBM3E à 8 couches en mars de cette année et prévoit de fournir 12 produits HBM3E au troisième trimestre de cette année.Le produit HBM4 (HBM de sixième génération) devrait être lancé en 2025, et la version 16 couche devrait être mise en production en 2026.
Le marché de l'intelligence artificielle en croissance rapide stimule le développement rapide du dram de nouvelle génération de SK Hynix.D'ici 2023, les modules HBM et DRAM à haute capacité principalement utilisés pour les applications d'intelligence artificielle représenteront environ 5% de l'ensemble du marché du stockage par valeur.SK Hynix prédit qu'en 2028, ces produits de stockage d'IA occuperont 61% de la part de marché.