$MU (Micron) ha lanzado un módulo de memoria de 256 GB diseñado específicamente para centros de datos de IA, que puede proporcionar una velocidad de respuesta más rápida para modelos de lenguaje grande (LLM), al tiempo que presenta una eficiencia energética significativamente mayor en comparación con la memoria tradicional. A medida que la inteligencia artificial pasa de la fase de entrenamiento a la fase de inferencia, la memoria de la CPU se está convirtiendo en el nuevo cuello de botella del rendimiento.