$MU (Micron) a lancé un module de mémoire de 256 Go conçu spécifiquement pour les centres de données AI, capable d'offrir des temps de réponse plus rapides pour les grands modèles de langage (LLM), tout en ayant une efficacité énergétique nettement supérieure par rapport à la mémoire traditionnelle. Alors que l'intelligence artificielle passe progressivement de la phase d'entraînement (training) à la phase d'inférence (inference), la mémoire CPU devient un nouveau goulot d'étranglement en termes de performance.