Nuove ricerche per migliorare l'auto-riflessione negli agenti linguistici. Un problema centrale con l'auto-riflessione degli agenti è che i modelli tendono a generare riflessioni ripetitive che aggiungono rumore invece di segnale, danneggiando le prestazioni complessive del ragionamento. Introduce ParamMem, un modulo di memoria parametrica che codifica i modelli di riflessione incrociata direttamente nei parametri del modello, quindi utilizza il campionamento controllato dalla temperatura per generare riflessioni diverse al momento dell'inferenza. ParamMem mostra miglioramenti costanti rispetto ai baseline SOTA in generazione di codice, ragionamento matematico e QA multi-hop. Abilita anche il trasferimento da debole a forte e l'auto-miglioramento senza la necessità di un modello esterno più forte, rendendolo un aggiornamento pratico per i pipeline agentici. Documento: Impara a costruire agenti AI efficaci nella nostra accademia: