Micron a présenté un module de mémoire de 256 Go : quand les gigaoctets comptent enfin
Tandis que les utilisateurs ordinaires débattent depuis des années pour savoir si 16 Go de RAM suffisent pour le bon fonctionnement du navigateur Chrome, la société Micron a décidé de clore la question de façon radicale. Le fabricant a présenté un module LPDRAM SOCAMM2 avec une capacité de 256 Go. Mais ne vous précipitez pas pour faire de la place dans votre unité centrale à domicile - cet appareil est destiné à ceux qui construisent l'avenir de l'intelligence artificielle, et non à ceux qui montent des ordinateurs de jeu.
Un nouveau standard pour les racks de serveurs
Le format SOCAMM2 (Server-On-Chip Attached Memory Module) ne vient pas de e part. Il a été développé en étroite collaboration avec Nvidia spécifiquement pour la prochaine génération d'accélérateurs. Contrairement aux barrettes auxquelles nous sommes habitués, ce format est orienté vers une densité maximale de composants dans un boîtier compact. Comparé aux solutions traditionnelles comme RDIMM ou LRDIMM, le nouveau module permet aux intégrateurs de systèmes d'augmenter considérablement la quantité de mémoire par nœud de serveur, sans le transformer en radiateur pour tout le centre de données.
Le principal avantage du SOCAMM2 réside dans son efficacité énergétique. L'utilisation de LPDRAM (Low Power DRAM) permet de réduire la consommation d'énergie, ce qui est crucial lorsque des dizaines de ces modules fonctionnent dans votre rack. Le site officiel Micron souligne que cette approche aide à éviter le « goulet d'étranglement » lors de la transmission de données, qui est un problème éternel des superordinateurs modernes.
Pourquoi cela intéresse Nvidia et son "Vera Rubin"
Ces volumes massifs de mémoire trouveront leur place sur la plateforme Vera Rubin - la prochaine étape dans l'évolution des systèmes de calcul de Nvidia après l'architecture Blackwell. L'intelligence artificielle nécessite non seulement de la vitesse, mais aussi la capacité de maintenir d'énormes ensembles de données aussi près que possible des cœurs de calcul. Nvidia parie sur le fait que le SOCAMM2 sera la clé de l'évolutivité des modèles de langage de nouvelle génération.
Les tests internes de Micron montrent des résultats difficilement négligeables. Les serveurs équipés de modules de 256 Go montrent une accélération des charges de travail d'Apache Spark SVM jusqu'à quatre fois. Ce bond en performance est atteint non seulement grâce au volume, mais aussi grâce à une meilleure localisation des données. En termes simples, le système n'a plus besoin de constamment "courir" vers des stockages plus lents, car l'ensemble des données nécessaires est désormais directement contenu dans la mémoire vive.
Ce que cela signifie pour le marché
Bien que nous ne soyons probablement pas près de voir le SOCAMM2 dans les ordinateurs portables ordinaires, cette sortie indique clairement la direction de développement de l'industrie. La compacité n'est plus synonyme de compromis sur la puissance. Micron pose effectivement un nouveau niveau de densité qui obligera les concurrents à revoir leurs plans pour l'année 2026. Pour l'industrie de l'IA, cela signifie la possibilité de traiter des requêtes encore plus complexes avec des coûts d'infrastructure réduits.
Si 256 Go dans un seul module vous semblent excessifs pour les tâches domestiques, regardez les appareils qui tentent de tirer le maximum des petites tailles pour d'autres objectifs. Par exemple, Morefine N1 - c'est un NAS, qui, dans ses ambitions, peut tout à fait rivaliser avec les équipements professionnels d'entrée de gamme.