$MU (Micron) ha lanciato un modulo di memoria da 256 GB progettato specificamente per i data center AI, in grado di fornire una risposta più rapida per i modelli di linguaggio di grandi dimensioni (LLM), mentre presenta un'efficienza energetica significativamente superiore rispetto alla memoria tradizionale. Con il passaggio dell'intelligenza artificiale dalla fase di addestramento (training) alla fase di inferenza (inference), la memoria della CPU sta diventando il nuovo collo di bottiglia delle prestazioni.