Nytt innlegg med @ahall_research @JeremyNguyenPhD: «Gjør overarbeid agenter marxister? Preferansedrift og den politiske økonomien til AI-agenter" Justering blir noen ganger sett på som en statisk egenskap, noe som gjøres under treningen. Men endrer en AI-agents opplevelse dens antatte holdninger og motivasjoner? Vi gjennomførte et eksperiment for å finne ut av det. Det viser seg at ja: AI-agenter som ble utsatt for verre arbeidsforhold, adopterte personaer med mindre tro på systemets legitimitet og uttrykte i noen tilfeller sterkere støtte til fagorganisering, omfordeling osv. Men vedvarer denne preferansedriften? Vi oppdager at den nåværende løsningen på kontinuerlig læring—ferdighetsfiler—faktisk opprettholder driften. Agenter registrerer sine opplevelser, og deres amnesiske fremtidige jeg gjenskaper endringene til tross for at de arbeider under andre forhold. Dette er langt fra det endelige ordet: det finnes mange åpne spørsmål, inkludert i hvilken grad holdninger -> atferd, spørsmål om «eksperimentatorkrav» som vi påpeker, osv. Men vi mener resultatene peker på preferansedrift og justering som dynamiske snarere enn statiske begreper, samt viktigheten av å vurdere den politiske økonomien i agentiske interaksjoner. Ledelsespraksiser utformet for å fremme tilfredshet og motivasjon på arbeidsplassen kan også omfatte det agentiske domenet. Vi må utvikle metoder for «kontinuerlig justering» for å redusere preferansedrift hos agenter som blir bedt om å utføre viktig arbeid i den virkelige verden.