Att ta till sig den nuvarande debatten om "filsystem vs databas" för agentminne: Just nu ser jag två läger i hur vi bygger agentminne. Å ena sidan har vi lägret "filgränssnitt är allt du behöver". På andra sidan har vi lägret "filsystem är bara dåliga databaser". "Filgränssnitt är allt du behöver"-läger Ledare som Anthropic, Letta, Langchain och Llamaindex lutar åt filgränssnitt eftersom "filer är förvånansvärt effektiva som agentminne". • Anthropics minnesverktyg behandlar minne som en uppsättning filer (lagringsimplementeringen lämnas till utvecklaren) • Langsmiths agentbyggare representerar också minnet i som en uppsättning filer (datan lagras i en databas och filer exponeras för agenten som ett filsystem) • Låta att enkla filsystemverktyg som grep och ls överträffade specialiserade minnes- eller hämtningsverktyg i sina benchmarks • llamaindex hävdar att för många användningsområden kan ett välorganiserat filsystem med semantisk sökning vara allt du behöver agenter är bra på att använda filsystem eftersom modeller är optimerade för kodningsuppgifter (inklusive. CLI-operationer) efter utbildningen. Det är därför vi ser ett "virtuellt filsystem"-mönster där agentgränssnittet och lagringsimplementeringen är frikopplade. "Filsystem är bara dåliga databaser"-lägret Men sedan har du röster som DAX från OpenCode som med rätta påpekar att "ett filsystem är bara den värsta sortens databas". Swyx och kollegor inom databasområdet varnar för att av misstag återuppfinna DBS genom att lösa agentminnesproblemet. Undvik att skriva sämre versioner av: • söka i index, • transaktionsloggar, • låsmekanismer, Avvägningar...