$MU(マイクロン)は、AIデータセンター向けに設計された256GBのメモリモジュールを発売しました。これは大規模言語モデル(LLM)に対してより高速な応答時間を提供しつつ、従来のメモリよりも大幅に省エネルギーを実現しています。 AIが訓練から推論へと移行する中で、CPUメモリは新たなパフォーマンスのボトルネックとなっています。