$MU (Micron) har lansert en 256 GB minnemodul designet for AI-datasentre, som kan gi raskere responstider for store språkmodeller (LLM-er) samtidig som den er betydelig mer energieffektiv enn tradisjonelt minne. Etter hvert som AI går fra trening til inferens, blir CPU-minnet en ny ytelsesflaskehals.