Si parla molto di aumentare la privacy creando uno strato di routing anonimo tra l'utente e il fornitore del modello AI. Ma ciò che non capisco davvero è questo: i LLM di base sono già eccezionalmente bravi a identificare schemi e a de-anonimizzare. Perché dovremmo pensare che non siano in grado di ricollegarci rapidamente? Scommetterei che la re-identificazione in 1 colpo da parte di un modello è facilmente possibile attraverso singoli prompt da più account, anche se sono 'anonimamente' instradati all'API. Sicuramente è particolarmente vero quando gli utenti stanno lavorando sullo stesso pezzo di codice, progetto o dallo stesso ambiente. In sintesi: è un po' come usare il browser Tor pensando di essere anonimi dai siti web, ma mantenendo i cookie tra le sessioni. La quantità di modifiche che dovresti fare al contesto per essere davvero protetto contro il ricollegamento da parte di grandi modelli sembra davvero sostanziale al punto di una massiccia inefficienza.