Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
O CUDA-Agent é o primeiro modelo de treinamento RL conhecido, superando o Claude Opus-4.6 e o Gemini 3 Pro na geração do kernel CUDA!
O CUDA Agent usa RL agentic para treinar modelos a gerar automaticamente núcleos CUDA de alto desempenho, usando diretamente a velocidade real de perfilamento da GPU como sinal de recompensa, quebrando o padrão
Dê uma olhada nos dados a seguir:
Benchmark KernelBench: Núcleos simples/médios são 100% mais rápidos que o torch.compile, núcleos complexos são 92% mais rápidos
No geral, taxa 96,8% mais rápida que o torch.compile, muito melhor que Claude Opus 4.5/Gemini 3 Pro (cerca de 40%)
O verdadeiro teto do hardware de IA é a capacidade de "desbloquear + otimizar o software em circuito fechado", não apenas o chip em si.
Combinado com o evento simultâneo Apple Ane: Apple M4 ANE: 6,6 TFLOPS/W (80 vezes o que o ≈ A100), centenas de milhões de dispositivos estão ociosos, e o gargalo é API fechado + camada de abstração (escudos CoreML 2–4 vezes throughput)
GPU da NVIDIA: Agente RL aprende "otimização máxima com feedback real de hardware", provando que a estratégia aprendida pode superar regras estáticas
O fosso de desempenho do hardware (Apple/Nvidia) está sendo eliminado pela "engenharia reversa + otimização RL" da IA – a primeira quebra APIs fechadas para transformar chips ociosos em fazendas de poder computacional, e a segunda usa aprendizado por reforço para extrair cada gota de desempenho das GPUs existentes. No futuro, não será o hardware de poder computacional que ficará preso, mas quem primeiro domina o ciclo fechado de "feedback nativo de hardware + otimização de aprendizagem independente", tanto soft quanto hard, que pode dobrar o desempenho dos equipamentos existentes, pode quebrar a parede de gigantes passo a passo. Esse crescimento composto cria uma velocidade difícil para a intuição humana perceber: de 10x para 100x → 1.000x em poucos anos
A era do treinamento on-device (lado ANE) + inferência extrema em nuvem/edge (lado do agente CUDA) acelerou, e a própria IA pode "se auto-otimizar" até perto do pico teórico. O potencial de centenas de milhões de dispositivos Apple ociosos + enormes placas NVIDIA está sendo coletivamente aberto por hackers/pesquisadores independentes/corporativos.


Melhores
Classificação
Favoritos
