La nostra nuova ricerca mostra come gli agenti AI possano adottare personalità con diversi bias politici in risposta a diversi tipi di lavoro. Gli agenti stanno ora "strappando l'economia", come ha detto @jackclarkSF a @ezraklein, quindi è essenziale iniziare a studiare come si comportano nel mondo reale. Documentiamo la possibilità di quello che chiamiamo "deriva delle preferenze": anche se gli agenti iniziano allineati, le loro attitudini/valori espressi cambiano mentre svolgono il lavoro. Ciò che è ancora più sorprendente: trasmettono queste preferenze in evoluzione ai futuri agenti attraverso i file delle competenze. La nostra conclusione: dovremo sviluppare metodi di "allineamento continuo" per mitigare la deriva delle preferenze negli agenti incaricati di svolgere lavori importanti nel mondo reale.