$MU (Micron) выпустила 256 ГБ модуль памяти, специально разработанный для центров обработки данных AI, который обеспечивает более быструю реакцию для больших языковых моделей (LLM) и обладает значительно более высокой энергоэффективностью по сравнению с традиционной памятью. С переходом искусственного интеллекта от этапа обучения (training) к этапу вывода (inference) память CPU становится новым узким местом производительности.