Inginer de cercetare full-stack/ML, implicat în principal în AI, LLM, MLX @JohnMai_Dev Pe 3 martie 2026, inferența modelului Qwen3.5-0.8B a fost implementată cu succes pe cipul Apple M1 Pro și a fost rulată direct folosind Apple Neural Engine (ANE). Bazat pe un proiect open source: Apelați direct la Apple Neural Engine pentru lucrări revoluționare în antrenament și inferență, mulți oameni credeau că Apple nu va deschide ANE pentru antrenament/inferență completă În trecut, ANE era folosit în principal pentru inferența CoreML integrată în sistem și era dificil pentru terți să apeleze direct și eficient, dar acum, prin maderix/ANE, poți folosi direct ANE pentru a rula inferență înainte a modelelor mari moderne (unii chiar fac antrenament backprop) Și, bazat pe modelul mic de 0,8B lansat de Qwen + ANE = consum extrem de scăzut de energie, viteză bună și intimitate locală completă M1 Pro poate rula, ceea ce înseamnă că un număr mare de utilizatori vechi de Mac (seriile M1/M2) dispun brusc de o opțiune de accelerator AI foarte eficientă, care este mai eficientă din punct de vedere energetic și mai rapidă decât simpla utilizare a GPU/CPU Cooperarea lui Ane a transformat complet Mac-ul într-o stație de lucru AI locală ieftină, iar vechile mașini Apple pot fi comparate cu modelul chinez modern de dimensiuni mari (Qwen3.5 0.8B), deschizând ușa către noi modalități de a juca pe Mac local și AI eficient.