Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Nav Toor
Ajudando-o a dominar a IA diariamente com guias de IA passo a passo, últimas notícias e ferramentas práticas
🚨 Alguém acabou de resolver o maior gargalo em agentes de IA. E é um binário de 12MB.
Chama-se Pinchtab. Ele dá a qualquer agente de IA controle total do navegador através de uma API HTTP simples.
Não está preso a um framework. Não está vinculado a um SDK. Qualquer agente, qualquer linguagem, até mesmo curl.
Sem configuração. Sem instalação. Sem dependências. Apenas um único binário Go.
Aqui está o porquê de cada solução existente estar quebrada:
→ O navegador do OpenClaw? Funciona apenas dentro do OpenClaw
→ Playwright MCP? Bloqueado por framework
→ Uso do navegador? Acoplado à sua própria pilha
Pinchtab é um servidor HTTP independente. Seu agente envia requisições HTTP. É isso.
Aqui está o que essa coisa faz:
→ Lança e gerencia suas próprias instâncias do Chrome
→ Expondo uma árvore DOM acessível em primeiro lugar com referências de elementos estáveis
→ Clicar, digitar, rolar, navegar. Tudo via chamadas HTTP simples
→ Modo de furtividade embutido que contorna a detecção de bots em sites principais
→ Sessões persistentes. Faça login uma vez, permanece logado entre reinicializações
→ Orquestração de múltiplas instâncias com um painel em tempo real
→ Funciona sem cabeça ou com cabeça (humano faz 2FA, agente assume)
Aqui está a parte mais louca:
Uma captura de página completa custa ~800 tokens com o endpoint /text do Pinchtab.
A mesma página via capturas de tela? ~10.000 tokens.
Isso é 13x mais barato. Em uma tarefa de monitoramento de 50 páginas, você paga $0.01 em vez de $0.30.
Ele ainda tem um modo de diffs inteligente. Retorna apenas o que mudou desde a última captura. Seu agente para de reler a página inteira a cada chamada.
1.6K estrelas no GitHub. 478 commits. 15 lançamentos. Mantido ativamente.
100% Código Aberto. Licença MIT.

6
🚨 A equipa Qwen da Alibaba lançou uma estrutura que torna o treino de IA 8x mais eficiente.
Chama-se OPUS
Resolve o problema que cada laboratório de IA está silenciosamente a entrar em pânico: a Parede de Dados.
O texto público de alta qualidade está a esgotar-se. As projeções dizem que estará esgotado entre 2026 e 2028.
O OPUS não encontra mais dados. Ele escolhe os dados certos em cada passo de treino.
Aqui está como funciona:
→ Em cada passo do otimizador, o OPUS pontua um buffer candidato de amostras de treino
→ Projeta a atualização efetiva de cada amostra na geometria real do otimizador (AdamW, Muon)
→ Mede quanto cada amostra melhoraria o desempenho em um benchmark alvo
→ Usa amostragem de Boltzmann para preservar a diversidade e evitar redundância
→ Seleciona apenas os tokens de maior utilidade para a atualização
Aqui está a parte mais louca:
Ele treinou o GPT-2 XL com 30B de tokens e superou modelos treinados com 200B de tokens.
Isso não é um erro de digitação. 30B venceu 200B.
No Qwen3-8B, o OPUS igualou o treino completo com 3B de tokens usando apenas 0.5B de tokens. Um ganho de eficiência de dados de 6x. Na continuação do pré-treino em domínios científicos.
Ainda mais louco: eles deram deliberadamente ao OPUS os dados de menor qualidade (pontuação FineWeb-Edu 3) enquanto as linhas de base foram treinadas na partição de alta qualidade (pontuações 4-5). O OPUS ainda venceu. Dados de menor qualidade, selecionados dinamicamente, venceram dados de maior qualidade filtrados estaticamente.
Tudo isso com apenas 4.7% de sobrecarga computacional adicional.
Métodos anteriores de seleção dinâmica pontuavam dados usando gradientes brutos — o que assume SGD. Mas ninguém treina mais com SGD. Todos usam AdamW ou Muon. Esses otimizadores remodelam gradientes através de momento, escalonamento adaptativo e ortogonalização de matrizes.
O OPUS é a primeira estrutura a pontuar dados no espaço de atualização real do otimizador. Não onde o gradiente aponta. Onde os parâmetros realmente se movem.
Da SJTU, equipa Qwen da Alibaba, UW–Madison, UIUC e Mila.
Artigo: "OPUS: Towards Efficient and Principled Data Selection in LLM Pre-training"

6
Top
Classificação
Favoritos

