Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Nav Toor
Membantu Anda menguasai AI setiap hari dengan panduan AI langkah demi langkah, berita terbaru, & alat praktis
🚨 Seseorang baru saja memecahkan kemacetan terbesar dalam agen AI. Dan itu adalah biner 12MB.
Itu disebut Pinchtab. Ini memberi agen AI mana pun kontrol browser penuh melalui API HTTP biasa.
Tidak terkunci pada kerangka kerja. Tidak terikat dengan SDK. Agen apa pun, bahasa apa pun, bahkan ikal.
Tidak ada konfigurasi. Tidak ada pengaturan. Tidak ada dependensi. Hanya satu biner Go.
Inilah mengapa setiap solusi yang ada rusak:
→ browser OpenClaw? Hanya berfungsi di dalam OpenClaw
→ Penulis Drama MCP? Kerangka kerja terkunci
→ Penggunaan Browser? Digabungkan dengan tumpukannya sendiri
Pinchtab adalah server HTTP mandiri. Agen Anda mengirim permintaan HTTP. Itu saja.
Inilah yang dilakukan benda ini:
→ Meluncurkan dan mengelola instance Chrome-nya sendiri
→ Mengekspos pohon DOM yang mengutamakan aksesibilitas dengan ref elemen stabil
→ Klik, ketik, gulir, navigasi. Semua melalui panggilan HTTP sederhana
→ Mode siluman bawaan yang melewati deteksi bot di situs utama
→ Sesi persisten. Masuk sekali, tetap masuk saat memulai ulang
→ Orkestrasi multi-instans dengan dasbor real-time
→ Bekerja tanpa kepala atau berkepala (manusia melakukan 2FA, agen mengambil alih)
Inilah bagian terliar:
Rekam jepret halaman penuh berharga ~800 token dengan titik akhir /text Pinchtab.
Halaman yang sama melalui tangkapan layar? ~ 10.000 token.
Itu 13x lebih murah. Pada tugas pemantauan 50 halaman, Anda membayar $0,01, bukan $0,30.
Bahkan memiliki mode diff pintar. Hanya mengembalikan apa yang berubah sejak rekam jepret terakhir. Agen Anda berhenti membaca ulang seluruh halaman setiap panggilan.
1.6K bintang GitHub. 478 komitmen. 15 rilis. Dipelihara secara aktif.
100% Sumber Terbuka. Lisensi MIT.

3
🚨 Tim Qwen Alibaba merilis kerangka kerja yang membuat pelatihan AI 8x lebih efisien.
Ini disebut OPUS
Ini memecahkan masalah yang diam-diam panik oleh setiap lab AI: Dinding Data.
Teks publik berkualitas tinggi hampir habis. Proyeksi mengatakan itu akan hilang pada tahun 2026–2028.
OPUS tidak menemukan lebih banyak data. Ini memilih data yang tepat di setiap langkah pelatihan.
Begini cara kerjanya:
→ Pada setiap langkah pengoptimal, OPUS mencetak buffer kandidat dari sampel pelatihan
→ Memproyeksikan pembaruan efektif setiap sampel ke dalam geometri aktual pengoptimal (AdamW, Muon)
→ Mengukur seberapa banyak setiap sampel akan meningkatkan kinerja pada tolok ukur target
→ Menggunakan pengambilan sampel Boltzmann untuk melestarikan keragaman dan menghindari redundansi
→ Hanya memilih token utilitas tertinggi untuk pembaruan
Inilah bagian terliar:
Ini melatih GPT-2 XL pada token 30B dan mengungguli model yang dilatih pada token 200B.
Itu bukan kesalahan ketik. 30B mengalahkan 200B.
Pada Qwen3-8B, OPUS mencocokkan pelatihan penuh dengan token 3B hanya menggunakan token 0,5B. Peningkatan efisiensi data 6x lipat. Dalam pra-pelatihan berkelanjutan tentang domain ilmiah.
Bahkan lebih gila: mereka sengaja memberi OPUS data berkualitas rendah (skor FineWeb-Edu 3) sementara baseline dilatih pada partisi berkualitas tinggi (skor 4–5). OPUS masih menang. Data berkualitas lebih rendah, dipilih secara dinamis, mengalahkan data berkualitas lebih tinggi yang disaring secara statis.
Semua ini hanya dengan overhead komputasi tambahan 4,7%.
Metode seleksi dinamis sebelumnya mencetak data menggunakan gradien mentah — yang mengasumsikan SGD. Tapi tidak ada yang berlatih dengan SGD lagi. Semua orang menggunakan AdamW atau Muon. Pengoptimal ini membentuk kembali gradien melalui momentum, penskalaan adaptif, dan ortogonalisasi matriks.
OPUS adalah kerangka kerja pertama yang menilai data di ruang pembaruan aktual pengoptimal. Tidak di mana gradien menunjuk. Di mana parameter benar-benar bergerak.
Dari SJTU, Tim Qwen Alibaba, UW–Madison, UIUC, dan Mila.
Makalah: "OPUS: Menuju Seleksi Data yang Efisien dan Berprinsip dalam Pra-pelatihan LLM"

3
Teratas
Peringkat
Favorit

