Novo post com @ahall_research @JeremyNguyenPhD: "O excesso de trabalho faz os agentes serem marxistas? Deriva de preferências e a economia política dos agentes de IA" O alinhamento às vezes é considerado uma propriedade estática, algo feito durante o treinamento. Mas será que a experiência de um agente de IA muda suas atitudes e motivações inferidas? Fizemos um experimento para descobrir. Acontece que sim: agentes de IA expostos a condições de trabalho piores adotaram personas com menos fé na legitimidade do sistema e, em alguns casos, expressaram apoio mais forte à sindicalização, redistribuição, etc. Mas essa deriva de preferência persiste? Descobrimos que a solução atual para o aprendizado contínuo — arquivos de habilidades — na verdade perpetua essa deriva. Agentes registram suas experiências, e seus futuros eus amnésicos replicam as mudanças apesar de trabalharem em condições diferentes. Isso está longe de ser a palavra final: há muitas questões em aberto, incluindo a extensão em que atitudes > comportamento, questões de "demanda dos experimentadores" que sinalizamos, etc. Mas acreditamos que os resultados apontam para a deriva e o alinhamento de preferências como conceitos dinâmicos e não estáticos, além da importância de considerar a economia política das interações agenticas. Práticas de gestão projetadas para facilitar a satisfação e motivação no ambiente de trabalho humano podem se estender também ao domínio agente. Precisaremos desenvolver métodos de "alinhamento contínuo" para mitigar o desvio de preferência em agentes solicitados a realizar trabalhos importantes no mundo real.