Un zvon despre GPT-5.4 era că modelul poate persista starea. Jeff Dean a menționat acest lucru la apariția sa @latentspacepod, deci este clar ceva la care laboratoarele AI se gândesc. Aș paria că există șanse mari să fi descoperit cum să integreze eficient modelele spațiului de stare cu Transformers la scară largă. SSM-urile sunt proiectate să transporte o stare ascunsă înainte la fiecare pas computațional și să se scaleze liniar, nu pătratic, ca în Transformers. De asemenea, susține zvonul că GPT-5.4 va avea o fereastră de context de 2 milioane de token-uri. Starea persistentă ar însemna practic că modelele AI trec de la a fi personajul lui Guy Pearce în "Memento" la personajul lui Dustin Hoffman în "Rain Man" peste noapte. Ar oferi modelelor AI o memorie adevărată pe termen lung. Ar fi o descoperire uriașă, cu adevărat.