Récemment, la puce HBM3E (High Bandwidth Memory) de cinquième génération de Samsung Electronics a réussi les tests de Nvidia et a été qualifiée pour une utilisation dans ses processeurs d'intelligence artificielle (IA). Bien qu'aucun accord d'approvisionnement officiel n'ait encore été signé entre les deux parties, selon des sources informées, un accord devrait être conclu prochainement, avec une livraison prévue pour le quatrième trimestre 2024. C'est une excellente nouvelle pour Samsung, qui franchit ainsi une étape importante dans sa compétition avec son concurrent local SK Hynix.

Puce Technologie (1)

Source : Image générée par IA, fournisseur de services d'autorisation d'images Midjourney

Cependant, la puce HBM3E à 12 couches de Samsung n'a pas encore passé les tests de Nvidia. Des sources indiquent que Samsung a travaillé d'arrache-pied pendant l'année écoulée pour réussir les tests de Nvidia, mais a rencontré des difficultés liées à la chaleur et à la consommation d'énergie. Pour résoudre ces problèmes, Samsung a revu la conception de son HBM3E et a finalement réussi les tests.

La HBM (mémoire à bande passante élevée) est une mémoire vive dynamique (DRAM) apparue pour la première fois en 2013. Les puces utilisent une méthode d'empilement vertical, ce qui permet d'économiser de l'espace et de réduire la consommation d'énergie. La HBM est un composant clé pour les unités de traitement graphique (GPU) car elle permet de traiter les grandes quantités de données générées par les applications complexes. Avec l'essor de l'intelligence artificielle générative, la demande de GPU hautes performances a considérablement augmenté.

Selon la société d'études de marché TrendForce, la puce HBM3E devrait devenir la norme du marché cette année, notamment en termes de volume d'expédition au second semestre. SK Hynix progresse également rapidement dans la livraison de sa HBM3E à 12 couches. Samsung prévoit que les puces HBM3E représenteront 60 % de ses ventes de puces HBM d'ici le quatrième trimestre 2024. Actuellement, les principaux fabricants mondiaux de HBM sont SK Hynix, Micron et Samsung, SK Hynix étant déjà le principal fournisseur de puces HBM pour Nvidia.

Enfin, le chiffre d'affaires total de Samsung pour les puces DRAM au premier semestre 2023 s'est élevé à environ 22,5 trillions de wons sud-coréens. Les analystes estiment qu'environ 10 % de ce chiffre d'affaires provient probablement des ventes de HBM. Cette nouvelle a suscité l'attention du marché et nourri les attentes des investisseurs quant à l'avenir de Samsung.

Points clés :

🌟 La puce HBM3E à 8 couches de Samsung a réussi les tests de Nvidia et devrait être livrée à partir du quatrième trimestre 2024.

🔥 La puce HBM3E à 12 couches n'a pas encore passé les tests, mais Samsung a ajusté sa conception pour relever les défis.

📈 La puce HBM3E devrait devenir la norme du marché au second semestre 2023, la demande de GPU hautes performances augmentant rapidement.