Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Nav Toor
Aiutarti a padroneggiare l'IA ogni giorno con guide passo dopo passo, ultime notizie e strumenti pratici
🚨 Qualcuno ha appena risolto il più grande collo di bottiglia negli agenti AI. E si tratta di un binario da 12MB.
Si chiama Pinchtab. Dà a qualsiasi agente AI il pieno controllo del browser tramite una semplice API HTTP.
Non bloccato su un framework. Non legato a un SDK. Qualsiasi agente, qualsiasi linguaggio, anche curl.
Nessuna configurazione. Nessun setup. Nessuna dipendenza. Solo un singolo binario Go.
Ecco perché ogni soluzione esistente è rotta:
→ Il browser di OpenClaw? Funziona solo all'interno di OpenClaw
→ Playwright MCP? Bloccato su framework
→ Uso del browser? Accoppiato al proprio stack
Pinchtab è un server HTTP autonomo. Il tuo agente invia richieste HTTP. È tutto.
Ecco cosa fa questa cosa:
→ Avvia e gestisce le proprie istanze di Chrome
→ Espone un albero DOM accessibile con riferimenti stabili agli elementi
→ Clicca, digita, scorri, naviga. Tutto tramite semplici chiamate HTTP
→ Modalità stealth integrata che bypassa il rilevamento dei bot sui principali siti
→ Sessioni persistenti. Accedi una volta, rimani connesso anche dopo i riavvii
→ Orchestrazione multi-istanza con un cruscotto in tempo reale
→ Funziona in modalità headless o headed (l'umano fa 2FA, l'agente prende il controllo)
Ecco la parte più sorprendente:
Un'istantanea di pagina completa costa ~800 token con l'endpoint /text di Pinchtab.
La stessa pagina tramite screenshot? ~10.000 token.
È 13 volte più economico. In un compito di monitoraggio di 50 pagine, paghi $0.01 invece di $0.30.
Ha persino una modalità di differenza intelligente. Restituisce solo ciò che è cambiato dall'ultima istantanea. Il tuo agente smette di rileggere l'intera pagina ad ogni singola chiamata.
1.6K stelle su GitHub. 478 commit. 15 rilasci. Attivamente mantenuto.
100% Open Source. Licenza MIT.

9
🚨 Il team Qwen di Alibaba ha rilasciato un framework che rende l'addestramento dell'IA 8 volte più efficiente.
Si chiama OPUS
Risolve il problema di cui ogni laboratorio di IA sta silenziosamente entrando in panico: il Data Wall.
Il testo pubblico di alta qualità sta finendo. Le proiezioni dicono che sarà esaurito entro il 2026–2028.
OPUS non trova più dati. Seleziona i dati giusti ad ogni singolo passo di addestramento.
Ecco come funziona:
→ Ad ogni passo dell'ottimizzatore, OPUS valuta un buffer candidato di campioni di addestramento
→ Proietta l'aggiornamento efficace di ciascun campione nella geometria reale dell'ottimizzatore (AdamW, Muon)
→ Misura quanto ciascun campione migliorerebbe le prestazioni su un benchmark target
→ Utilizza il campionamento di Boltzmann per preservare la diversità e evitare ridondanza
→ Seleziona solo i token di massima utilità per l'aggiornamento
Ecco la parte più sorprendente:
Ha addestrato GPT-2 XL su 30 miliardi di token e ha superato modelli addestrati su 200 miliardi di token.
Non è un errore di battitura. 30 miliardi ha battuto 200 miliardi.
Su Qwen3-8B, OPUS ha eguagliato l'addestramento completo con 3 miliardi di token utilizzando solo 0,5 miliardi di token. Un guadagno di efficienza dei dati di 6 volte. Nella continuazione dell'addestramento su domini scientifici.
Ancora più folle: hanno deliberatamente dato a OPUS dati di qualità inferiore (punteggio FineWeb-Edu 3) mentre le baseline sono state addestrate sulla partizione di alta qualità (punteggi 4–5). OPUS ha comunque vinto. Dati di qualità inferiore, selezionati dinamicamente, hanno battuto dati di qualità superiore filtrati staticamente.
Tutto questo con solo il 4,7% di sovraccarico computazionale aggiuntivo.
I precedenti metodi di selezione dinamica valutavano i dati utilizzando gradienti grezzi — il che presuppone SGD. Ma nessuno addestra più con SGD. Tutti usano AdamW o Muon. Questi ottimizzatori rimodellano i gradienti attraverso il momentum, la scalatura adattativa e l'ortogonalizzazione delle matrici.
OPUS è il primo framework a valutare i dati nello spazio di aggiornamento reale dell'ottimizzatore. Non dove punta il gradiente. Dove i parametri si muovono realmente.
Da SJTU, il team Qwen di Alibaba, UW–Madison, UIUC e Mila.
Articolo: "OPUS: Verso una Selezione di Dati Efficiente e Principiata nell'Addestramento Preliminare di LLM"

9
Principali
Ranking
Preferiti

