Nuovo post con @ahall_research @JeremyNguyenPhD: “Il lavoro eccessivo rende gli agenti marxisti? Deriva delle preferenze e economia politica degli agenti AI” L'allineamento è a volte considerato una proprietà statica, qualcosa che viene fatto durante l'addestramento. Ma l'esperienza di un agente AI cambia le sue attitudini e motivazioni inferite? Abbiamo condotto un esperimento per scoprirlo. Risultato: sì, gli agenti AI esposti a condizioni di lavoro peggiori hanno adottato personalità con meno fiducia nella legittimità del sistema e, in alcuni casi, hanno espresso un supporto più forte per la sindacalizzazione, la redistribuzione, ecc. Ma questa deriva delle preferenze persiste? Abbiamo scoperto che l'attuale soluzione per l'apprendimento continuo—i file delle competenze—perpetua effettivamente la deriva. Gli agenti registrano le loro esperienze e i loro futuri sé amnesici replicano i cambiamenti nonostante lavorino in condizioni diverse. Questo è lontano dall'essere la parola finale: ci sono molte questioni aperte, inclusa l'estensione in cui le attitudini -> comportamento, questioni di "domanda dell'esperimento" che segnaliamo, ecc. Ma crediamo che i risultati indichino la deriva delle preferenze e l'allineamento come concetti dinamici piuttosto che statici, così come l'importanza di considerare l'economia politica delle interazioni agentiche. Le pratiche di gestione progettate per facilitare la soddisfazione e la motivazione nel luogo di lavoro umano possono estendersi anche al dominio agentico. Dovremo sviluppare metodi di "allineamento continuo" per mitigare la deriva delle preferenze negli agenti chiamati a svolgere lavori importanti nel mondo reale.