Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Å bygge @EurekaLabsAI. Tidligere direktør for AI @ Tesla, grunnleggerteam @ OpenAI, CS231n/PhD @ Stanford. Jeg liker å trene store dype nevrale nett.
Jeg hadde samme tanke, så jeg har lekt med det i nanochat. For eksempel, her er 8 agenter (4 claude, 4 codex), med 1 GPU hver som kjører nanochat-eksperimenter (prøver å slette logit softcap uten regresjon). TLDR er at det ikke fungerer og det er et rot... Men det er fortsatt veldig pent å se på :)
Jeg prøvde noen oppsett: 8 uavhengige soloforskere, 1 sjefsforsker som gir arbeid til 8 juniorforskere, osv. Hvert forskningsprogram er en git-gren, hver forsker forgrener den til en feature-gren, git-arbeidstrær for isolasjon, enkle filer for kommunikasjon, hopp over Docker/VM-er for enkelhet akkurat nå (jeg synes instruksjoner er nok til å forhindre interferens). Forskningsorganisasjonen kjører i tmux-vindusrutenett av interaktive økter (som Teams) slik at det er pent å se på, se deres individuelle arbeid, og «ta over» om nødvendig, altså ingen -p.
Men ok, grunnen til at det ikke fungerer så langt, er at agentenes ideer rett og slett er ganske dårlige rett ut av boksen, selv på høyeste intelligens. De tenker ikke nøye gjennom eksperimentdesign, de kjører litt meningsløse variasjoner, de lager ikke sterke baselines og ablater ting riktig, de kontrollerer ikke nøye for kjøretid eller flopper. (Bare som et eksempel, en agent "oppdaget" i går at å øke den skjulte størrelsen på nettverket forbedrer valideringstapet, noe som er et helt uklart resultat siden et større nettverk vil ha lavere valideringstap i det uendelige dataregimet, men det trener også mye lenger, det er ikke klart hvorfor jeg måtte påpeke det). De er veldig flinke til å implementere enhver veldefinert og godt omfanget idé, men de genererer dem ikke kreativt.
Men målet er at du nå programmerer en organisasjon (f.eks. en «forskningsorganisasjon») og dens individuelle agenter, så «kildekoden» er samlingen av prompts, ferdigheter, verktøy osv. og prosesser som utgjør den. For eksempel er en daglig standup om morgenen nå en del av «org-koden». Og å optimalisere nanochat-fortrening er bare én av mange oppgaver (nesten som en evaluering). Så – gitt en vilkårlig oppgave, hvor raskt genererer forskningsorganisasjonen din fremgang på den?

Thomas Wolf28. feb. 2026
Hvordan kan det ha seg at NanoGPT-speedrun-utfordringen ikke er fullstendig AI-automatisert forskning nå?
755
Med den kommende tsunamien av etterspørsel etter tokens, finnes det betydelige muligheter til å orkestrere den underliggende minne+compute *akkurat riktig* for LLM-er.
Den grunnleggende og ikke-åpenbare begrensningen er at på grunn av chip-produksjonsprosessen får du to helt forskjellige minnepooler (med ulike fysiske implementasjoner også): 1) on-chip SRAM som ligger rett ved siden av beregningsenhetene og er utrolig rask, men med svært lav kapasitet, og 2) off-chip DRAM som har ekstremt høy kapasitet, men innholdet kan du bare suge gjennom et langt sugerør. I tillegg er det mange detaljer i arkitekturen (f.eks. systoliske matriser), numerikk osv.
Utformingen av det optimale fysiske substratet og deretter orkestreringen av minne+beregning på tvers av de største arbeidsflytene i LLM-er (inferensprefill/dekoding, trening/finjustering osv.) med best gjennomstrømning/latens/$, er sannsynligvis dagens mest interessante intellektuelle puslespill med høyest belønning (\sitat 4,6T av NVDA). Alt dette for å få mange tokens, raskt og billig. Man kan hevde at arbeidsflyten som kan være viktigst (inferensdekoding *og* over lange token-kontekster i stramme agentiske løkker) er den vanskeligste å oppnå samtidig for ~begge leirene av det som eksisterer i dag (HBM-først NVIDIA adjacent og SRAM-først Cerebras-tilknyttet). Uansett, MatX-teamet er A++-klasse, så det er en glede for meg å ha en liten deltakelse, og gratulerer med lønnsøkningen!

Reiner Pope25. feb. 2026
Vi bygger en LLM-brikke som leverer mye høyere gjennomstrømning enn noen annen brikke, samtidig som den oppnår lavest latens. Vi kaller den MatX One.
MatX One-brikken er basert på et delbart systolisk array, som har energi- og arealeffektiviteten som store systoliske arrays er kjent for, samtidig som den får høy utnyttelse på mindre matriser med fleksible former. Brikken kombinerer den lave latenstiden til SRAM-først-design med lang-kontekststøtte fra HBM. Disse elementene, pluss en ny tilnærming til numerikk, gir høyere gjennomstrømning på LLM-er enn noe annonsert system, samtidig som de matcher latenstiden til SRAM-først-design. Høyere gjennomstrømning og lavere ventetid gir deg smartere og raskere modeller for abonnementsbudsjettet ditt.
Vi har hentet inn en Series B til 500 millioner dollar for å avslutte utviklingen og raskt skalere produksjonen, med tapeouting på under ett år. Runden ble ledet av Jane Street, et av de mest teknologikyndige Wall Street-selskapene, og Situational Awareness LP, hvis grunnlegger @leopoldasch skrev det definitive notatet om AGI. Deltakerne inkluderer @sparkcapital, @danielgross and @natfriedman's fund, @patrickc and @collision, @TriatomicCap, @HarpoonVentures, @karpathy, @dwarkesh_sp og andre. Vi ønsker også investorer velkommen gjennom hele forsyningskjeden, inkludert Marvell og Alchip.
@MikeGunter_ og jeg startet MatX fordi vi mente at den beste brikken for LLM-er burde designes fra grunnprinsipper med en dyp forståelse av hva LLM-er trenger og hvordan de vil utvikle seg. Vi er villige til å gi opp ytelse med små modeller, lavvolum og til og med enkel programmering for å levere på en slik brikke.
Vi er nå et team på 100 personer med folk som tenker på alt fra læretidsplaner, til Swing Modulo Scheduling, til guard/round/sticky bits, til blind-mated forbindelser – alt i samme bygning. Hvis du ønsker å hjelpe oss med å arkitektere, designe og distribuere mange generasjoner av brikker i stort volum, kan du vurdere å bli med oss.
281
CLI-er er superspennende nettopp fordi de er en «legacy»-teknologi, noe som betyr at AI-agenter kan bruke dem naturlig og enkelt, kombinere dem, samhandle med dem via hele terminalverktøykassen.
For eksempel be Claude/Codex-agenten din installere denne nye Polymarket CLI-en og be om eventuelle vilkårlige dashbord, grensesnitt eller logikk. Agentene vil bygge det for deg. Installer også Github CLI, så kan du be dem navigere i repoet, se problemer, PR-er, diskusjoner, til og med selve koden.
Eksempel: Claude bygde dette terminaldashbordet på ~3 minutter, av de mest volumende polymarkedene og 24-timers endring. Eller du kan gjøre det til en webapp eller hva du vil. Enda kraftigere når du bruker det som en modul i større pipelines.
Hvis du har et produkt eller en tjeneste, tenk: kan agenter få tilgang til og bruke dem?
- Er dine legacy-dokumenter (for mennesker) i det minste eksporterbare i Markdown?
- har du skrevet ferdigheter for produktet ditt?
- kan produktet/tjenesten din brukes via CLI? Eller MCP?
- ...
Det er 2026. Bygg. For. Agenter.


Suhail Kakar24. feb. 2026
Introduksjon av PolyMarket CLI – Den raskeste måten for AI-agenter å få tilgang til prediksjonsmarkeder på
Bygget med rust. Agenten din kan spørre markeder, plassere handler og hente data – alt fra terminalen
rask, lettvekt, ingen overhead
217
Topp
Rangering
Favoritter
