$MU (Micron) hat ein 256-GB-Speichermodul vorgestellt, das speziell für KI-Datenzentren entwickelt wurde und schnellere Reaktionszeiten für große Sprachmodelle (LLM) bietet, während es im Vergleich zu herkömmlichem Speicher eine deutlich höhere Energieeffizienz aufweist. Da sich die künstliche Intelligenz allmählich von der Trainingsphase (training) zur Inferenzphase (inference) bewegt, wird der CPU-Speicher zum neuen Leistungsengpass.