Nova pesquisa sobre como melhorar a autorreflexão em agentes de linguagem. Um problema central com a autorreflexão dos agentes é que os modelos tendem a gerar reflexões repetitivas que adicionam ruído em vez de sinal, prejudicando o desempenho geral do raciocínio. Apresenta o ParamMem, um módulo de memória paramétrica que codifica padrões de reflexão entre amostras diretamente nos parâmetros do modelo, e depois utiliza amostragem controlada por temperatura para gerar reflexões diversas no momento da inferência. O ParamMem mostra melhorias consistentes em relação às linhas de base SOTA em geração de código, raciocínio matemático e QA de múltiplos saltos. Também permite transferência de fraca para forte e autoaperfeiçoamento sem precisar de um modelo externo mais forte, tornando-se uma atualização prática para pipelines agentes. Artigo: Aprenda a construir agentes de IA eficazes na nossa academia: