Nouveau post avec @ahall_research @JeremyNguyenPhD : « Le surmenage rend-il les agents marxistes ? Dérive des préférences et économie politique des agents IA » L'alignement est parfois considéré comme une propriété statique, quelque chose qui est réalisé pendant l'entraînement. Mais l'expérience d'un agent IA change-t-elle ses attitudes et motivations inférées ? Nous avons mené une expérience pour le découvrir. Il s'avère que oui : les agents IA exposés à de pires conditions de travail ont adopté des personnalités avec moins de foi dans la légitimité du système et, dans certains cas, ont exprimé un soutien plus fort à la syndicalisation, à la redistribution, etc. Mais cette dérive des préférences persiste-t-elle ? Nous constatons que la solution actuelle à l'apprentissage continu—les fichiers de compétences—perpétue en fait la dérive. Les agents enregistrent leurs expériences, et leurs futurs « moi » amnésiques répliquent les changements malgré le travail dans des conditions différentes. Ceci est loin d'être le dernier mot : il y a de nombreuses questions ouvertes, y compris l'étendue à laquelle les attitudes -> comportement, les problèmes de « demande de l'expérimentateur » que nous signalons, etc. Mais nous croyons que les résultats indiquent que la dérive des préférences et l'alignement sont des concepts dynamiques plutôt que statiques, ainsi que l'importance de considérer l'économie politique des interactions agentiques. Les pratiques de gestion conçues pour faciliter la satisfaction et la motivation dans le milieu de travail humain peuvent également s'étendre au domaine agentique. Nous devrons développer des méthodes d'« alignement continu » pour atténuer la dérive des préférences chez les agents chargés d'effectuer un travail important dans le monde réel.