Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Pełnostackowy inżynier badań ML, zajmujący się głównie AI, LLM i MLX.
@JohnMai_Dev 3 marca 2026 roku z powodzeniem zrealizował inferencję modelu Qwen3.5-0.8B na chipie Apple M1 Pro, korzystając bezpośrednio z Apple Neural Engine (ANE).
Na podstawie projektu open source: przełomowa praca polegająca na bezpośrednim wykorzystaniu Apple Neural Engine do treningu i inferencji, wcześniej wielu ludzi sądziło, że Apple nie udostępnia ANE do pełnego treningu/inferencji.
Wcześniej ANE był głównie używany do inferencji CoreML wbudowanej w systemie, a zewnętrznym deweloperom trudno było go efektywnie wykorzystać. Teraz dzięki maderix/ANE można bezpośrednio używać ANE do przeprowadzania inferencji w nowoczesnych dużych modelach (nawet niektórzy już pracują nad treningiem backprop).
A model 0.8B oparty na Qwen + ANE = bardzo niski pobór mocy, całkiem niezła prędkość, całkowita prywatność lokalna.
M1 Pro może to uruchomić, co oznacza, że wielu starych użytkowników Maca (seria M1/M2) nagle zyskało bardzo wydajną opcję przyspieszania AI, co jest bardziej oszczędne energetycznie i szybsze niż korzystanie tylko z GPU/CPU.
Współpraca ANE całkowicie przekształca Maca w tani lokalny stację roboczą AI, a stare maszyny Apple mogą korzystać z nowoczesnych dużych modeli językowych (Qwen3.5 0.8B) do inferencji, otwierając drzwi do nowego sposobu efektywnego AI lokalnie na Macu.

Najlepsze
Ranking
Ulubione
