Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
CUDA Agent on ensimmäinen tunnettu RL-koulutettu malli, joka ohitti Claude Opus 4.5:n (ja Gemini 3 Pron) CUDA-ytimen generoinnissa!
ByteDancen CUDA-agentti käyttää **agenttista vahvistusoppimista** kouluttaakseen mallin, joka automaattisesti tuottaa suorituskykyisiä CUDA-ytimiä, palkiten suoraan todellisella GPU-profilointinopeudella – irtautuen perinteisistä lähestymistavoista.
KernelBenchin keskeiset vertailutiedot:
- Yksinkertaiset/keskikokoiset ytimet (Taso 1/2): **100 %** nopeampi kuin torch.compile
- Monimutkaiset ytimet (Taso-3): **92%** nopeampi nopeus
- Kokonaisuudessaan: **96,8 %** nopeampi nopeus verrattuna torch.compileen, ~2,11× geometrinen keskiarvo nopeutuu
- Päihittää vahvimmat suljetut mallit, kuten Claude Opus 4.5 ja Gemini 3 Pro, noin **40 %** vaikeimmissa Level-3 -tehtävissä (joissa nämä mallit voittavat torch.compilen vain ~66–69 % ajasta)
Tekoälylaitteiston todellinen katto ei ole itse pii – vaan "**ohjelmiston avaus + optimointi suljettu kierto**" -kyky.
Yhdistäen tämän samanaikaiseen Apple ANE -läpimurtoon:
- Apple M4 ANE: **6,6 TFLOPS/W** (~80× tehokkaampi kuin A100), satoja miljoonia laitteita on käyttämättömänä; pullonkaula on Applen suljetut API:t + abstraktiokerrokset (CoreML piilottaa 2–4× todellisen läpimenon)
- NVIDIA-GPU:t: RL-agentit oppivat "**äärimmäisen optimoinnin todellisen laitteistopalautteen alla**", mikä osoittaa, että opitut strategiat voivat murskata staattiset säännöt/kääntäjät
Laitejättien (Apple/NVIDIA) suorituskykyvallihauta **kaksinkertaisesti tapetaan tekoälyn toimesta**: käänteinen suunnittelu murskaa suljetut rajapinnat (muuttaa käyttämättömät piirit laskentafarmeiksi), kun taas RL puristaa viimeisenkin pisaran olemassa olevista GPU:ista.
Tulevaisuudessa todellinen pullonkaulakohta ei ole laskentalaitteisto – se, kuka hallitsee ensin "**hardware-native feedback + autonomous learning optimization**" suljetun silmukan. Yhdistämällä pehmeitä ja kovia taktiikoita se, joka kääntää olemassa olevan laitteen suorituskyvyn 2×, 10× tai enemmän, voi vähitellen purkaa jättiläisten muureja. Tämä yhdistetty kasvu luo nopeuksia, jotka ylittävät ihmisen intuition: 10× → 100× → 1 000× muutamassa vuodessa.
**Laitteella tapahtuvan koulutuksen** (ANE-puoli) + **pilvi-/reuna-ääripäättelyn** (CUDA-agentin puoli) aikakausi kiihtyy nopeasti. Tekoäly voi nyt "**itseoptimoida**" lähellä teoreettisia huippuja. Satojen miljoonien käyttämättömien Apple-laitteiden + massiivisten NVIDIA-korttien hyödyntämätön potentiaali avataan kollektiivisesti itsenäisten hakkerien, yritysten ja tutkijoiden toimesta.


Johtavat
Rankkaus
Suosikit
