Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Nav Toor
Autamme sinua hallitsemaan tekoälyä päivittäin vaiheittaisilla AI-oppailla, viimeisimmillä uutisilla ja käytännön työkaluilla
🚨 Joku ratkaisi juuri suurimman pullonkaulan tekoälyagenteissa. Ja se on 12MB binääri.
Sitä kutsutaan Pinchtabiksi. Se antaa mille tahansa tekoälyagentille täyden selaimen hallinnan pelkän HTTP-rajapinnan kautta.
Ei lukittu kehykseen. Ei sidottu SDK:hon. Mikä tahansa agentti, mikä tahansa kieli, jopa kierre.
Ei konfiguraatiota. Ei valmistelua. Ei riippuvuuksia. Vain yksi Go-binääri.
Tässä syyt, miksi jokainen olemassa oleva ratkaisu on rikki:
→ OpenClaw'n selain? Toimii vain OpenClaw'n sisällä
→ Näytelmäkirjailija MCP? Kehyslukittu
→ selaimen käyttö? Yhdistettynä omaan pinoon
Pinchtab on itsenäinen HTTP-palvelin. Agenttisi lähettää HTTP-pyyntöjä. Siinä se.
Tässä mitä tämä laite tekee:
→ Käynnistää ja hallinnoi omia Chrome-instanssejaan
→ Paljastaa saavutettavuuslähtöisen DOM-puun, jossa on stabiileja elementtiviitteitä
→ Klikkaa, kirjoita, selaa, navigoi. Kaikki yksinkertaisilla HTTP-kutsuilla
→ Sisäänrakennettu stealth-tila, joka ohittaa bottien havaitsemisen suurilla sivustoilla
→ Jatkuvat sessiot. Kirjaudu sisään kerran, pysyy kirjautuneena uudelleenkäynnistyksissä
→ Moniinstanssiorkestrointi reaaliaikaisella dashboardilla
→ Toimii joko päättömänä tai päässä (ihminen tekee 2FA, agentti ottaa ohjat)
Tässä on villein osa:
Koko sivun snapshot maksaa ~800 tokenia Pinchtabin /text -päätepisteellä.
Sama sivu kuvakaappauksilla? ~10 000 tokenia.
Se on 13 kertaa halvempi. 50-sivuisessa valvontatehtävässä maksat 0,01 dollaria 0,30 sijaan.
Siinä on jopa älykas tasauspyörästötila. Palauttaa vain sen, mitä on muuttunut viimeisen snapshotin jälkeen. Asiakaspalvelijasi lopettaa koko sivun lukemisen uudelleen jokaisella puhelulla.
1,6 000 GitHub-tähteä. 478 sitoutuu. 15 julkaisua. Aktiivisesti ylläpidetty.
100 % avoimen lähdekoodin. MIT-lisenssi.

11
🚨 Alibaban Qwen-tiimi julkaisi kehyksen, joka tekee tekoälykoulutuksesta 8 kertaa tehokkaampaa.
Sitä kutsutaan OPUS:ksi
Se ratkaisee ongelman, josta jokainen tekoälylaboratorio hiljaa panikoi: dataseinän.
Laadukas julkinen teksti on loppumassa. Ennusteiden mukaan se on poissa vuosille 2026–2028.
OPUS ei löydä enempää tietoa. Se valitsee oikeat tiedot jokaisessa harjoitusvaiheessa.
Näin se toimii:
→ Jokaisessa optimointivaiheessa OPUS pisteyttää koulutusnäytteiden ehdokaspuskurin
→ Projektoi jokaisen näytteen tehokkaan päivityksen optimoijan todelliseen geometriaan (AdamW, Muon)
→ Mittaa, kuinka paljon kukin otos parantaisi suorituskykyä tavoitevertailussa
→ Käyttää Boltzmannin otantaa monimuotoisuuden säilyttämiseksi ja redundanssin välttämiseksi
→ Valitsee päivitykseen vain hyötysin tokenit
Tässä on villein osa:
Se koulutti GPT-2 XL:ää 30B-tokeneilla ja päihitti mallit, jotka oli koulutettu 200B-tokeneilla.
Se ei ole kirjoitusvirhe. 30B voitti 200B:n.
Qwen3-8B:llä OPUS yhdisti täyden koulutuksen 3B-tokeneilla käyttäen vain 0,5B tokeneita. 6-kertainen datatehokkuuden parannus. Jatkaen esikoulutusta tieteellisillä aloilla.
Vielä hullumpaa: he antoivat tarkoituksella OPUS:lle heikomman laadun datan (FineWeb-Edu pisteet 3), kun taas lähtötasot koulutettiin korkealaatuisella osiolla (pisteet 4–5). OPUS voitti silti. Matalalaatuinen data, dynaamisesti valittu, voitti korkealaatuisen datan staattisesti suodatettuna.
Kaikki tämä vain 4,7 % lisälaskentakuormalla.
Aiemmat dynaamiset valintamenetelmät pisteyttivät dataa raakagradienttien avulla — mikä olettaa SGD:n. Mutta kukaan ei enää harjoittele SGD:n kanssa. Kaikki käyttävät AdamW:tä tai Muonia. Nämä optimoijat muokkaavat gradientteja liikemäärän, adaptiivisen skaalauksen ja matriisiortogonalisoinnin avulla.
OPUS on ensimmäinen kehys, joka pisteyttää dataa optimoijan varsinaisessa päivitystilassa. Ei siellä, missä kaltevuus osoittaa. Missä parametrit oikeasti liikkuvat.
SJTU:sta, Alibaban Qwen-joukkueesta, UW–Madisonista, UIUC:sta ja Milasta.
Artikkeli: "OPUS: Kohti tehokasta ja periaatteellista tiedonvalintaa LLM-esikoulutuksessa"

11
Johtavat
Rankkaus
Suosikit

