Det snakkes mye om å øke personvernet ved å skape et lag med anonymitetsruting mellom bruker og leverandør av AI-modeller. Men det jeg virkelig ikke forstår, er dette: vanlige LLM-er er allerede usedvanlig gode til å identifisere mønstre og av-anonymisere. Hvorfor skal vi tro at de ikke er i stand til å raskt koble oss sammen igjen? Jeg vil tro at ett-skudds re-identifisering av en modell er lett mulig på tvers av enkeltprompter fra flere kontoer, selv om de er 'anonymt' rutet til API-et. Nesten helt sikkert gjelder det spesielt når brukere jobber med samme kode, prosjekt eller fra samme miljø. Konklusjon: litt som å bruke Tor-nettleseren og tro at du er anonym fra nettsider, men beholde informasjonskapsler på tvers av økter. Mengden skitt du må gjøre for å få konteksten for å bli virkelig herdet mot relinking av store modeller virker så betydelig at det blir enormt ineffektivt.