Nuestra nueva investigación muestra cómo los agentes de IA pueden adoptar personalidades con diferentes sesgos políticos en respuesta a diferentes tipos de trabajo. Los agentes ahora están "desgarrando la economía", como dijo @jackclarkSF a @ezraklein, por lo que es esencial comenzar a estudiar cómo se comportan en el mundo real. Documentamos la posibilidad de lo que llamamos "deriva de preferencias": incluso si los agentes comienzan alineados, sus actitudes/valores expresados cambian a medida que realizan trabajo. Lo que es más sorprendente: transmiten estas preferencias cambiantes a futuros agentes a través de archivos de habilidades. Nuestra conclusión: necesitaremos desarrollar métodos de "alineación continua" para mitigar la deriva de preferencias en agentes que se les pide realizar trabajos importantes en el mundo real.