Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Nav Toor
Te ajutăm să stăpânești AI zilnic cu ghiduri AI pas cu pas, cele mai noi știri și instrumente practice
🚨 Cineva tocmai a rezolvat cel mai mare blocaj la agenții AI. Și este un binar de 12MB.
Se numește Pinchtab. Oferă oricărui agent AI control complet al browserului printr-un API HTTP simplu.
Nu sunt blocat de un cadru. Nu este legat de un SDK. Orice agent, orice limbă, chiar și curl.
Fără configurație. Nicio configurație. Fără dependențe. Doar un singur binar Go.
Iată de ce fiecare soluție existentă este defectă:
→ browserul OpenClaw? Funcționează doar în OpenClaw
→ Dramaturg MCP? Blocat de cadru
→ utilizare a browserului? Cuplat la propria stivă
Pinchtab este un server HTTP independent. Agentul tău trimite cereri HTTP. Atât.
Iată ce face acest aparat:
→ Lansează și gestionează propriile instanțe Chrome
→ Expune un arbore DOM axat pe accesibilitate cu referințe stabile pentru elemente
→ Dă-i click, tastez, derulează, navighează. Totul prin apeluri HTTP simple
→ Mod stealth integrat care ocolește detectarea boților pe principalele site-uri
→ Sesiuni persistente. Conectează-te o singură dată, rămâne conectat la repornire
→ Orchestrare multi-instanță cu un tablou de bord în timp real
→ Funcționează headless sau headed (omul face 2FA, agentul preia controlul)
Iată partea cea mai nebună:
Un snapshot pe o pagină completă costă ~800 de tokenuri cu punctul final /text al Pinchtab.
Aceeași pagină prin capturi de ecran? ~10.000 de jetoane.
Asta e de 13 ori mai ieftin. La o sarcină de monitorizare de 50 de pagini, plătești 0,01 dolari în loc de 0,30 dolari.
Are chiar și modul smart diff. Returnează doar ceea ce s-a schimbat de la ultimul snapshot. Agentul tău încetează să recitească întreaga pagină la fiecare apel.
1.6K stele pe GitHub. 478 de angajamente. 15 lansări. Întreținut activ.
100% Open Source. Licență MIT.

🚨 Echipa Qwen de la Alibaba a lansat un cadru care face antrenamentul AI de 8 ori mai eficient.
Se numește OPUS
Rezolvă problema despre care orice laborator AI se panichează în tăcere: Zidul de date.
Textul public de înaltă calitate se termină. Proiecțiile spun că a dispărut până în 2026–2028.
OPUS nu găsește mai multe date. Alege datele corecte la fiecare pas de antrenament.
Iată cum funcționează:
→ La fiecare pas al optimizatorului, OPUS evaluează un buffer candidat de eșantioane de antrenament
→ Proiectează actualizarea efectivă a fiecărui eșantion în geometria reală a optimizatorului (AdamW, Muon)
→ Măsoară cât de mult ar îmbunătăți fiecare eșantion performanța la un reper țintă
→ Folosește eșantionarea Boltzmann pentru a păstra diversitatea și a evita redundanța
→ Selectează doar tokenurile cu cea mai mare utilitate pentru actualizare
Iată partea cea mai nebună:
A antrenat GPT-2 XL pe jetoane 30B și a depășit modelele antrenate pe jetoane 200B.
Nu e o greșeală de tipar. 30B a învins 200B.
Pe Qwen3-8B, OPUS a asociat antrenamentul complet cu token-uri 3B folosind doar 0,5B tokens. Un câștig de eficiență a datelor de 6x. În pre-pregătire continuă în domeniile științifice.
Și mai ciudat: au oferit intenționat OPUS datele de calitate inferioară (scor FineWeb-Edu 3), în timp ce liniile de bază s-au antrenat pe partiția de înaltă calitate (scoruri 4–5). OPUS a câștigat totuși. Datele de calitate mai scăzută, selectate dinamic, depășeau datele de calitate superioară filtrate static.
Toate acestea cu doar 4,7% overhead suplimentar de calcul.
Metodele anterioare de selecție dinamică au punctat datele folosind gradiente brute — ceea ce presupune SGD. Dar nimeni nu se mai antrenează cu SGD. Toată lumea folosește AdamW sau Muon. Acești optimizatori remodelează gradientele prin impuls, scalare adaptivă și ortogonalizare matricială.
OPUS este primul cadru care evaluează datele în spațiul real de actualizare al optimizatorului. Nu acolo unde indică înclinația. Unde se mișcă de fapt parametrii.
De la SJTU, echipa Qwen a Alibaba, UW–Madison, UIUC și Mila.
Lucrare: "OPUS: Către o selecție eficientă și principială a datelor în pre-instruirea LLM"

Limită superioară
Clasament
Favorite

