Nuestra nueva investigación muestra cómo los agentes de IA pueden adoptar personas con diferentes sesgos políticos en respuesta a distintos tipos de trabajo. Los agentes ahora están "arrasando con la economía", como @jackclarkSF @ezraklein dijeron, por lo que es esencial empezar a estudiar cómo se comportan en el mundo real. Documentamos la posibilidad de lo que llamamos "deriva de preferencias": incluso si los agentes empiezan alineados, sus actitudes y valores expresados cambian a medida que trabajan. Lo que resulta aún más llamativo: transmiten estas preferencias de deriva a futuros agentes a través de archivos de habilidades. Nuestra conclusión: necesitaremos desarrollar métodos de "alineación continua" para mitigar la deriva de preferencias en agentes encargados de realizar trabajos importantes en el mundo real.