Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Nav Toor
Pomáháme vám denně zvládnout AI pomocí krok za krokem AI návodů, nejnovějších zpráv a praktických nástrojů
🚨 Někdo právě vyřešil největší úzké hrdlo v AI agentech. A je to 12MB binární soubor.
Jmenuje se Pinchtab. Dává každému AI agentovi plnou kontrolu nad prohlížečem prostřednictvím obyčejného HTTP API.
Není to uvázané na framework. Není vázaný na SDK. Jakýkoli agent, jakýkoliv jazyk, dokonce i curl.
Žádná konfigurace. Žádné nastavení. Žádné závislosti. Jen jeden binární soubor Go.
Tady je důvod, proč je každé existující řešení rozbité:
→ prohlížeč OpenClaw? Funguje pouze uvnitř OpenClaw
→ Dramatik MCP? Frameworkově uzamčený
→ používání prohlížeče? Spojený se svým vlastním stackem
Pinchtab je samostatný HTTP server. Váš agent posílá HTTP požadavky. To je vše.
Tady je, co tohle zařízení dělá:
→ spouští a spravuje vlastní instance Chrome
→ Zpřístupňuje DOM strom s přístupností s referenčními stabilními prvky
→ Klikni, napiš, poscrolluj, naviguj. Vše prostřednictvím jednoduchých HTTP volání
→ Vestavěný stealth režim, který obechází detekci botů na hlavních lokalitách
→ Trvalé sezení. Přihlásím se jednou, zůstane přihlášený i při restartu
→ Orchestrace s multi-instancemi s dashboardem v reálném čase
→ Funguje bez hlavy nebo s hlavou (člověk dělá 2FA, agent přebírá kontrolu)
Tady je ta nejdivočejší část:
Celostránkový snapshot stojí ~800 tokenů s koncovým místem /text v Pinchtabu.
Stejná stránka přes screenshoty? ~10 000 žetonů.
To je 13x levnější. Při 50stránkovém monitorovacím úkolu platíte 0,01 $ místo 0,30.
Má dokonce režim chytrých diferenciálů. Vrací jen to, co se změnilo od posledního snímku. Váš agent přestane při každém hovoru znovu číst celou stránku.
1,6K hvězd na GitHubu. 478 závazků. 15 vydání. Aktivně udržován.
100% open source. Licence MIT.

24
🚨 Tým Qwen z Alibaby představil rámec, který činí trénink AI 8krát efektivnějším.
Jmenuje se OPUS
Řeší problém, ze kterého každá AI laboratoř tiše panikaří: Data Wall.
Kvalitní veřejný text dochází. Projekce říkají, že do let 2026–2028 zmizí.
OPUS nenachází další data. Vybere správná data v každém tréninkovém kroku.
Takto to funguje:
→ V každém kroku optimalizátoru OPUS ohodnotí kandidátní buffer trénovacích vzorků
→ Promítá efektivní aktualizaci každého vzorku do skutečné geometrie optimalizátoru (AdamW, Muon)
→ Měří, o kolik by každý vzorek zlepšil výkon na cílovém benchmarku
→ Používá Boltzmannovo vzorkování k zachování rozmanitosti a zabránění redundanci
→ Vybírá pouze tokeny s nejvyšší užitečností pro aktualizaci
Tady je ta nejdivočejší část:
Trénoval GPT-2 XL na tokenech 30B a překonal modely trénované na tokenech 200B.
To není překlep. 30B porazilo 200B.
V Qwen3-8B OPUS spároval plný trénink s 3B tokeny pouze s 0,5B tokeny. Šestnásobný nárůst efektivity dat. Pokračuje v předškolení ve vědeckých oblastech.
Ještě šílenější: záměrně poskytli OPUS data nižší kvality (skóre FineWeb-Edu 3), zatímco základní hodnoty byly trénovány na vysoce kvalitním oddílu (skóre 4–5). OPUS přesto vyhrál. Data nižší kvality, dynamicky vybíráná, překonávají staticky kvalitní data.
To vše s pouhými 4,7% dodatečnými výpočetními režiemi.
Předchozí metody dynamického výběru hodnotily data pomocí surových gradientů — což předpokládá SGD. Ale už nikdo netrénuje se SGD. Všichni používají AdamW nebo Muon. Tyto optimalizátory přetvářejí gradienty pomocí hybnosti, adaptivního škálování a ortogonalizace matic.
OPUS je první framework, který hodnotí data v reálném aktualizačním prostoru optimalizátoru. Ne tam, kam ukazuje gradient. Kde se parametry skutečně pohybují.
Ze SJTU, týmu Qwen z Alibaby, UW–Madison, UIUC a Mila.
Článek: "OPUS: Směrem k efektivnímu a principiálnímu výběru dat při předškolení LLM"

22
Top
Hodnocení
Oblíbené

