Pełnostackowy inżynier badań ML, zajmujący się głównie AI, LLM i MLX. @JohnMai_Dev 3 marca 2026 roku z powodzeniem zrealizował inferencję modelu Qwen3.5-0.8B na chipie Apple M1 Pro, korzystając bezpośrednio z Apple Neural Engine (ANE). Na podstawie projektu open source: przełomowa praca polegająca na bezpośrednim wykorzystaniu Apple Neural Engine do treningu i inferencji, wcześniej wielu ludzi sądziło, że Apple nie udostępnia ANE do pełnego treningu/inferencji. Wcześniej ANE był głównie używany do inferencji CoreML wbudowanej w systemie, a zewnętrznym deweloperom trudno było go efektywnie wykorzystać. Teraz dzięki maderix/ANE można bezpośrednio używać ANE do przeprowadzania inferencji w nowoczesnych dużych modelach (nawet niektórzy już pracują nad treningiem backprop). A model 0.8B oparty na Qwen + ANE = bardzo niski pobór mocy, całkiem niezła prędkość, całkowita prywatność lokalna. M1 Pro może to uruchomić, co oznacza, że wielu starych użytkowników Maca (seria M1/M2) nagle zyskało bardzo wydajną opcję przyspieszania AI, co jest bardziej oszczędne energetycznie i szybsze niż korzystanie tylko z GPU/CPU. Współpraca ANE całkowicie przekształca Maca w tani lokalny stację roboczą AI, a stare maszyny Apple mogą korzystać z nowoczesnych dużych modeli językowych (Qwen3.5 0.8B) do inferencji, otwierając drzwi do nowego sposobu efektywnego AI lokalnie na Macu.