Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Nav Toor
Wir helfen Ihnen, KI täglich zu meistern – mit Schritt-für-Schritt-KI-Anleitungen, den neuesten Nachrichten und praktischen Werkzeugen
🚨 Jemand hat gerade den größten Engpass bei KI-Agenten gelöst. Und es ist eine 12MB große Binärdatei.
Es heißt Pinchtab. Es gibt jedem KI-Agenten die volle Kontrolle über den Browser über eine einfache HTTP-API.
Nicht an ein Framework gebunden. Nicht an ein SDK gebunden. Jeder Agent, jede Sprache, sogar curl.
Keine Konfiguration. Kein Setup. Keine Abhängigkeiten. Nur eine einzige Go-Binärdatei.
Hier ist, warum jede bestehende Lösung kaputt ist:
→ OpenClaw's Browser? Funktioniert nur innerhalb von OpenClaw
→ Playwright MCP? Framework-gebunden
→ Browser Use? An seinen eigenen Stack gekoppelt
Pinchtab ist ein eigenständiger HTTP-Server. Ihr Agent sendet HTTP-Anfragen. Das ist alles.
Hier ist, was dieses Ding tut:
→ Startet und verwaltet seine eigenen Chrome-Instanzen
→ Stellt einen zugänglichkeitsorientierten DOM-Baum mit stabilen Element-Referenzen bereit
→ Klicken, tippen, scrollen, navigieren. Alles über einfache HTTP-Aufrufe
→ Eingebauter Stealth-Modus, der die Bot-Erkennung auf großen Seiten umgeht
→ Persistente Sitzungen. Einmal einloggen, bleibt bei Neustarts eingeloggt
→ Multi-Instanz-Orchestrierung mit einem Echtzeit-Dashboard
→ Funktioniert headless oder mit Benutzeroberfläche (Mensch macht 2FA, Agent übernimmt)
Hier ist der verrückteste Teil:
Ein vollständiger Seiten-Snapshot kostet ~800 Tokens mit Pinchtab's /text-Endpunkt.
Die gleiche Seite über Screenshots? ~10.000 Tokens.
Das ist 13x günstiger. Bei einer 50-seitigen Überwachungsaufgabe zahlen Sie $0,01 statt $0,30.
Es hat sogar einen intelligenten Diff-Modus. Gibt nur zurück, was sich seit dem letzten Snapshot geändert hat. Ihr Agent hört auf, die gesamte Seite bei jedem einzelnen Aufruf erneut zu lesen.
1,6K GitHub-Sterne. 478 Commits. 15 Releases. Aktiv gepflegt.
100% Open Source. MIT-Lizenz.

4
🚨 Das Qwen-Team von Alibaba hat ein Framework veröffentlicht, das das AI-Training um das 8-fache effizienter macht.
Es heißt OPUS.
Es löst das Problem, über das jedes AI-Labor heimlich in Panik gerät: die Datenwand.
Hochwertiger öffentlicher Text geht zur Neige. Prognosen sagen, dass er bis 2026–2028 verschwunden sein wird.
OPUS findet keine weiteren Daten. Es wählt die richtigen Daten bei jedem einzelnen Trainingsschritt aus.
So funktioniert es:
→ Bei jedem Optimierungsschritt bewertet OPUS einen Kandidatenpuffer von Trainingsproben
→ Projektiert die effektive Aktualisierung jeder Probe in die tatsächliche Geometrie des Optimierers (AdamW, Muon)
→ Misst, wie sehr jede Probe die Leistung bei einem Zielbenchmark verbessern würde
→ Verwendet Boltzmann-Sampling, um Vielfalt zu bewahren und Redundanz zu vermeiden
→ Wählt nur die nützlichsten Tokens für die Aktualisierung aus
Hier ist der verrückteste Teil:
Es hat GPT-2 XL mit 30B Tokens trainiert und Modelle übertroffen, die mit 200B Tokens trainiert wurden.
Das ist kein Tippfehler. 30B hat 200B geschlagen.
Bei Qwen3-8B hat OPUS das vollständige Training mit 3B Tokens erreicht, indem es nur 0,5B Tokens verwendet hat. Ein Gewinn von 6x in der Dateneffizienz. Bei fortgesetztem Pre-Training in wissenschaftlichen Bereichen.
Noch verrückter: Sie haben OPUS absichtlich die Daten von geringerer Qualität (FineWeb-Edu-Score 3) gegeben, während die Baselines auf der hochwertigen Partition (Scores 4–5) trainiert wurden. OPUS hat trotzdem gewonnen. Daten niedrigerer Qualität, dynamisch ausgewählt, haben Daten höherer Qualität, die statisch gefiltert wurden, geschlagen.
All dies mit nur 4,7 % zusätzlichem Rechenaufwand.
Frühere dynamische Auswahlmethoden bewerteten Daten mit Rohgradienten – was SGD annimmt. Aber niemand trainiert mehr mit SGD. Jeder verwendet AdamW oder Muon. Diese Optimierer formen Gradienten durch Momentum, adaptive Skalierung und Matrixorthogonalisierung um.
OPUS ist das erste Framework, das Daten im tatsächlichen Aktualisierungsraum des Optimierers bewertet. Nicht dort, wo der Gradient zeigt. Wo sich die Parameter tatsächlich bewegen.
Von SJTU, dem Qwen-Team von Alibaba, UW–Madison, UIUC und Mila.
Paper: "OPUS: Towards Efficient and Principled Data Selection in LLM Pre-training"

4
Top
Ranking
Favoriten

