Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
CUDA-Agent is het eerste bekende RL-trainingsmodel dat de Claude Opus-4.6 en Gemini 3 Pro in de generatie van CUDA-kernels overtreft!
CUDA Agent genereert automatisch high-performance CUDA-kernels met agentic RL-trainingsmodellen, waarbij de echte GPU-profileringssnelheid als beloningssignaal wordt gebruikt, wat de conventies doorbreekt.
Bekijk de onderstaande gegevens:
KernelBench benchmark: eenvoudige/matige kernels zijn 100% sneller dan torch.compile, complexe kernels zijn 92% sneller.
In totaal 96,8% sneller dan torch.compile, ver boven Claude Opus 4.5/Gemini 3 Pro (ongeveer 40%).
De echte plafond van AI-hardware is de capaciteit van "software ontgrendeling + optimalisatie gesloten lus", en niet alleen de chip zelf.
In combinatie met de gelijktijdige Apple Ane-incident: Apple M4 ANE: 6,6 TFLOPS/W (≈80 keer A100), honderden miljoenen apparaten zijn ongebruikt, de bottleneck is de gesloten API + abstractielaag (CoreML maskeert 2–4 keer de doorvoer).
NVIDIA GPU: RL Agent leert "extreme optimalisatie onder echte hardwarefeedback", wat bewijst dat de geleerde strategieën statische regels kunnen verslaan.
De prestatiemuur van hardware (Apple/NVIDIA) wordt dubbel aangevallen door AI "reverse engineering + RL-optimalisatie" - de eerste breekt de gesloten API open en verandert ongebruikte chips in rekenkrachtboerderijen, de laatste perst elke druppel prestatie uit de bestaande GPU's met versterkend leren. In de toekomst is het niet de rekenkracht hardware die de bottleneck vormt, maar wie als eerste de "hardware-inheemse feedback + autonome leeroptimalisatie" gesloten lus beheerst, zowel software als hardware, wie de prestaties van bestaande apparaten kan verdubbelen, kan stap voor stap de muren van de giganten doorbreken. Deze samengestelde groei zal een snelheid creëren die voor de mens moeilijk te waarnemen is: binnen enkele jaren kan het van 10 keer naar 100 keer → 1.000 keer uitbreiden.
De tijd van on-device training (ANE-kant) + cloud/edge extreme inferentie (CUDA Agent-kant) komt snel dichterbij, AI kan zichzelf "zelfoptimaliseren" tot dicht bij de theoretische piek. De potentie van honderden miljoenen ongebruikte Apple-apparaten + enorme hoeveelheden NVIDIA-kaarten wordt collectief door onafhankelijke/hackerbedrijven/onderzoekers geopend.


Boven
Positie
Favorieten
