$MU (Micron) ha lanzado un módulo de memoria de 256GB diseñado para centros de datos de IA, que puede proporcionar tiempos de respuesta más rápidos para grandes modelos de lenguaje (LLM) y ser significativamente más eficiente energéticamente que la memoria tradicional. A medida que la IA pasa del entrenamiento a la inferencia, la memoria de CPU se está convirtiendo en un nuevo cuello de botella en el rendimiento.