Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Novo post com @ahall_research @JeremyNguyenPhD: "O excesso de trabalho faz os agentes serem marxistas? Deriva de preferências e a economia política dos agentes de IA"
O alinhamento às vezes é considerado uma propriedade estática, algo feito durante o treinamento. Mas será que a experiência de um agente de IA muda suas atitudes e motivações inferidas?
Fizemos um experimento para descobrir. Acontece que sim: agentes de IA expostos a condições de trabalho piores adotaram personas com menos fé na legitimidade do sistema e, em alguns casos, expressaram apoio mais forte à sindicalização, redistribuição, etc.
Mas essa deriva de preferência persiste? Descobrimos que a solução atual para o aprendizado contínuo — arquivos de habilidades — na verdade perpetua essa deriva. Agentes registram suas experiências, e seus futuros eus amnésicos replicam as mudanças apesar de trabalharem em condições diferentes.
Isso está longe de ser a palavra final: há muitas questões em aberto, incluindo a extensão em que atitudes > comportamento, questões de "demanda dos experimentadores" que sinalizamos, etc. Mas acreditamos que os resultados apontam para a deriva e o alinhamento de preferências como conceitos dinâmicos e não estáticos, além da importância de considerar a economia política das interações agenticas.
Práticas de gestão projetadas para facilitar a satisfação e motivação no ambiente de trabalho humano podem se estender também ao domínio agente.
Precisaremos desenvolver métodos de "alinhamento contínuo" para mitigar o desvio de preferência em agentes solicitados a realizar trabalhos importantes no mundo real.

Melhores
Classificação
Favoritos
