Dużo mówi się o zwiększaniu prywatności poprzez stworzenie warstwy anonimowego routingu między użytkownikiem a dostawcą modelu AI. Ale tego, czego naprawdę nie rozumiem, to to: towarowe LLM-y są już wyjątkowo dobre w identyfikowaniu wzorców i deanonimizacji. Dlaczego mielibyśmy myśleć, że nie są w stanie szybko nas ponownie połączyć? Zaryzykowałbym stwierdzenie, że jednokrotna reidentyfikacja przez model jest łatwo możliwa na podstawie pojedynczych zapytań z wielu kont, nawet jeśli są one 'anonimowo' kierowane do API. Z pewnością jest to szczególnie prawdziwe, gdy użytkownicy pracują nad tym samym fragmentem kodu, projektem lub z tego samego środowiska. Podsumowując: to trochę jak korzystanie z przeglądarki Tor, myśląc, że jesteś anonimowy dla stron internetowych, ale zachowując pliki cookie między sesjami. Ilość manipulacji, jaką musiałbyś wykonać w kontekście, aby być naprawdę odpornym na ponowne połączenie przez duże modele, wydaje się naprawdę znaczna, do tego stopnia, że staje się to masowo nieefektywne.