SÉOUL : Samsung Electronics a annoncé être en bonne voie pour commencer les livraisons de sa mémoire haute bande passante HBM4 de nouvelle génération au premier trimestre 2026. L'entreprise a précisé que la gamme HBM4 comprendra des produits offrant des performances de 11,7 gigabits par seconde, dans le cadre de son expansion commerciale dans le domaine des serveurs et accélérateurs d'intelligence artificielle. Samsung n'a pas divulgué l'identité des premiers clients pour les livraisons initiales de HBM4, ni les volumes expédiés dans ses résultats financiers.

Dans ses résultats du quatrième trimestre et de l'exercice 2025, Samsung a annoncé que son activité mémoire avait enregistré des chiffres d'affaires et un résultat d'exploitation records, grâce à la hausse des ventes de produits à forte valeur ajoutée tels que la mémoire HBM, la mémoire DDR5 pour serveurs et les disques SSD pour entreprises. L'entreprise a précisé que la disponibilité limitée des composants restait un facteur limitant, malgré la demande croissante en calculs d'intelligence artificielle qui continuait de stimuler la consommation de mémoire et de stockage avancés pour les centres de données.
La mémoire à large bande passante (HBM4) est une technologie DRAM à empilement vertical conçue pour augmenter le débit de données par rapport à la DRAM conventionnelle. La HBM4 est la dernière génération succédant à la HBM3E. Dans une présentation aux investisseurs accompagnant la publication des résultats, Samsung a annoncé son intention de commercialiser à grande échelle des produits HBM4, notamment une version à 11,7 Gbit/s, et a souligné l'importance d'une livraison rapide de la HBM4 dans ses perspectives à court terme pour les produits liés à l'IA.
Nvidia, le principal fournisseur d'accélérateurs pour centres de données d'IA , a présenté sa plateforme Rubin, qui, selon l'entreprise, utilise la mémoire HBM4 dans plusieurs configurations système. Sur la page des spécifications du système rack Vera Rubin NVL72, Nvidia indique 20,7 téraoctets de mémoire HBM4 avec une bande passante de 1 580 téraoctets par seconde, et 288 gigaoctets de mémoire HBM4 avec une bande passante de 22 téraoctets par seconde pour un seul GPU Rubin. L'entreprise précise toutefois que ces chiffres sont préliminaires et susceptibles d'évoluer.
Exigences de mémoire de la plateforme Rubin
Le communiqué de résultats de Samsung a également mis en lumière des travaux plus vastes sur la fabrication et le conditionnement de semi-conducteurs avancés liés à l'intelligence artificielle. L'entreprise a indiqué que son activité de fonderie avait lancé la production en série de produits 2 nanomètres de première génération et commencé les livraisons de puces HBM 4 nanomètres, des composants utilisés dans la couche logique des mémoires à large bande passante. Samsung a précisé son intention de fournir des solutions optimisées grâce à l'intégration des technologies de logique, de mémoire et de conditionnement avancé.
D'autres grands fabricants de mémoire ont également publié des calendriers concernant la disponibilité de leur HBM4. SK hynix a annoncé en septembre 2025 avoir finalisé le développement et la préparation de la HBM4 et être prêt pour une production de masse. Micron a indiqué, lors d'une présentation aux investisseurs en décembre 2025, que sa HBM4, avec des vitesses supérieures à 11 Gbit/s, était en bonne voie pour une montée en puissance rapide et des rendements élevés au cours du deuxième trimestre 2026, conformément aux plans de montée en puissance des plateformes de ses clients.
Feuilles de route concurrentes pour HBM4
En présentant son programme HBM4, Micron a indiqué que sa mémoire HBM4 utilise des technologies CMOS et de métallisation avancées sur les puces logiques et DRAM, conçues et fabriquées en interne. L'entreprise a également souligné l'importance des capacités d'encapsulation et de test pour atteindre les objectifs de performance et de consommation énergétique. SK hynix, quant à elle, a décrit la HBM4 comme une étape importante dans l'évolution des mémoires empilées destinées à l'IA ultra-performante, où la bande passante et l'efficacité énergétique sont des impératifs pour le fonctionnement des centres de données.
Les documents financiers de Samsung n'ont pas établi de lien entre le calendrier de livraison de la mémoire HBM4 et un programme spécifique de processeur d'IA ou un déploiement client. Les annonces et les spécifications publiées par Nvidia concernant Rubin n'identifient pas les fournisseurs de mémoire HBM4, et Nvidia n'a pas divulgué les allocations de mémoire HBM4 destinées aux fournisseurs pour les systèmes Rubin. Selon le calendrier confirmé par Samsung dans son communiqué de résultats, les livraisons de mémoire HBM4 devraient débuter au cours du premier trimestre 2026. – Par Content Syndication Services .
L’article « Samsung vise des livraisons HBM4 au premier trimestre pour profiter du boom de l’IA » est paru initialement sur UAE Gazette .
