Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Nav Toor
Pomagamy Ci codziennie opanować AI dzięki przewodnikom krok po kroku, najnowszym wiadomościom i praktycznym narzędziom
🚨 Ktoś właśnie rozwiązał największy wąski gardło w agentach AI. I to jest binarny plik o wielkości 12MB.
Nazywa się Pinchtab. Daje każdemu agentowi AI pełną kontrolę nad przeglądarką przez prosty interfejs HTTP API.
Nie jest związany z żadnym frameworkiem. Nie jest powiązany z SDK. Każdy agent, każdy język, nawet curl.
Brak konfiguracji. Brak ustawień. Brak zależności. Tylko jeden plik binarny Go.
Oto dlaczego każde istniejące rozwiązanie jest zepsute:
→ Przeglądarka OpenClaw? Działa tylko w OpenClaw
→ Playwright MCP? Zablokowany w frameworku
→ Użycie przeglądarki? Połączone z własnym stosem
Pinchtab to samodzielny serwer HTTP. Twój agent wysyła żądania HTTP. I to wszystko.
Oto co to urządzenie robi:
→ Uruchamia i zarządza własnymi instancjami Chrome
→ Udostępnia drzewo DOM z myślą o dostępności z stabilnymi referencjami elementów
→ Klikaj, pisz, przewijaj, nawiguj. Wszystko za pomocą prostych wywołań HTTP
→ Wbudowany tryb ukryty, który omija wykrywanie botów na głównych stronach
→ Trwałe sesje. Zaloguj się raz, pozostaje zalogowany po ponownych uruchomieniach
→ Orkiestracja wielu instancji z panelem na żywo
→ Działa w trybie headless lub headed (człowiek wykonuje 2FA, agent przejmuje)
Oto najdziksza część:
Pełny zrzut strony kosztuje ~800 tokenów z końcówki /text Pinchtab.
Ta sama strona przez zrzuty ekranu? ~10,000 tokenów.
To 13 razy taniej. Przy zadaniu monitorowania 50 stron płacisz 0,01 USD zamiast 0,30 USD.
Ma nawet inteligentny tryb różnicowy. Zwraca tylko to, co się zmieniło od ostatniego zrzutu. Twój agent przestaje ponownie odczytywać całą stronę przy każdym wywołaniu.
1.6K gwiazdek na GitHubie. 478 commitów. 15 wydań. Aktywnie utrzymywane.
100% Open Source. Licencja MIT.

27
🚨 Zespół Qwen z Alibaba wprowadził framework, który sprawia, że trening AI jest 8 razy bardziej efektywny.
Nazywa się OPUS.
Rozwiązuje problem, o którym każde laboratorium AI cicho panikuje: Ściana Danych.
Wysokiej jakości publiczny tekst się kończy. Prognozy mówią, że zniknie do 2026–2028.
OPUS nie znajduje więcej danych. Wybiera odpowiednie dane na każdym kroku treningowym.
Oto jak to działa:
→ Na każdym kroku optymalizatora, OPUS ocenia kandydatów w buforze próbek treningowych
→ Projektyzuje efektywną aktualizację każdej próbki w rzeczywistej geometrii optymalizatora (AdamW, Muon)
→ Mierzy, jak bardzo każda próbka poprawiłaby wydajność na docelowym benchmarku
→ Używa próbkowania Boltzmanna, aby zachować różnorodność i uniknąć redundancji
→ Wybiera tylko najwyżej użyteczne tokeny do aktualizacji
Oto najdziksza część:
Wyszkolono GPT-2 XL na 30B tokenach i przewyższył modele trenowane na 200B tokenach.
To nie jest literówka. 30B pokonało 200B.
Na Qwen3-8B, OPUS osiągnął pełne szkolenie z 3B tokenów, używając tylko 0.5B tokenów. Zysk efektywności danych 6x. W kontynuowanym wstępnym treningu w dziedzinach naukowych.
Jeszcze bardziej szalone: celowo dano OPUS dane niższej jakości (FineWeb-Edu score 3), podczas gdy podstawy trenowały na wysokiej jakości podziale (wyniki 4–5). OPUS i tak wygrał. Dane niższej jakości, dynamicznie wybrane, pokonały dane wyższej jakości, statycznie filtrowane.
To wszystko z zaledwie 4.7% dodatkowego obciążenia obliczeniowego.
Poprzednie metody dynamicznego wyboru oceniania danych używały surowych gradientów — co zakłada SGD. Ale nikt już nie trenuje z SGD. Wszyscy używają AdamW lub Muon. Te optymalizatory przekształcają gradienty przez moment, adaptacyjne skalowanie i ortogonalizację macierzy.
OPUS jest pierwszym frameworkiem, który ocenia dane w rzeczywistej przestrzeni aktualizacji optymalizatora. Nie tam, gdzie wskazuje gradient. Gdzie parametry faktycznie się poruszają.
Z SJTU, zespołu Qwen Alibaba, UW–Madison, UIUC i Mila.
Artykuł: "OPUS: W kierunku efektywnego i zasadniczego wyboru danych w wstępnym treningu LLM"

24
Najlepsze
Ranking
Ulubione

