Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Een full-stack/ML onderzoeksingenieur, die zich voornamelijk bezighoudt met AI, LLM en MLX gerelateerde zaken.
@JohnMai_Dev heeft op 3 maart 2026 met succes de inferentie van het Qwen3.5-0.8B model gerealiseerd op de Apple M1 Pro chip, en dit gebeurde rechtstreeks met behulp van de Apple Neural Engine (ANE).
Gebaseerd op een open-source project: baanbrekend werk dat de Apple Neural Engine gebruikt voor training en inferentie, terwijl veel mensen dachten dat Apple de ANE niet openstelde voor volledige training/inferentie.
Voorheen werd de ANE voornamelijk gebruikt voor de systeem ingebouwde CoreML inferentie, en was het voor derden moeilijk om deze efficiënt aan te roepen. Nu kan men via maderix/ANE de ANE gebruiken voor de voorwaartse inferentie van moderne grote modellen (zelfs zijn er al mensen bezig met backprop training).
En met het Qwen gelanceerde 0.8B model + ANE = extreem laag energieverbruik, redelijke snelheid, volledig lokaal privacy.
De M1 Pro kan dit draaien, wat betekent dat veel oude Mac-gebruikers (M1/M2 serie) plotseling een zeer efficiënte AI-versneller optie hebben, die minder energie verbruikt en sneller is dan alleen GPU/CPU.
De combinatie van ANE maakt van de Mac een goedkope lokale AI-werkstation, waardoor zelfs oude Apple machines moderne Chinese grote modellen (Qwen3.5 0.8B) kunnen infereren, en opent de deur naar nieuwe manieren van efficiënte lokale AI op de Mac.

Boven
Positie
Favorieten
