Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Engenheiro de pesquisa full-stack/ML, principalmente envolvido em assuntos relacionados a IA, LLM e MLX
@JohnMai_Dev Em 3 de março de 2026, a inferência do modelo Qwen3.5-0.8B foi implementada com sucesso no chip Apple M1 Pro, e foi executada diretamente usando o Apple Neural Engine (ANE).
Baseado em um projeto de código aberto: Ligue diretamente para a Apple Neural Engine para trabalhos inovadores em treinamento e inferência, muitas pessoas achavam que a Apple não abriria o ANE para treinamento/inferência completo
No passado, o ANE era usado principalmente para inferência CoreML embutida no sistema, e era difícil para terceiros chamar diretamente e de forma eficiente, mas agora, através do maderix/ANE, você pode usar o ANE diretamente para executar inferência direta de modelos grandes modernos (algumas pessoas até fazem treinamento de backprop)
E baseado no modelo pequeno de 0,8B lançado pela Qwen + ANE = consumo de energia extremamente baixo, boa velocidade e total privacidade local
O M1 Pro pode rodar, o que significa que um grande número de usuários antigos de Mac (séries M1/M2) de repente têm uma opção de acelerador de IA muito eficiente, que é mais eficiente em termos de energia e mais rápida do que apenas usar GPU/CPU
A cooperação de Ane transformou completamente o Mac em uma estação de trabalho local de IA barata, e as antigas máquinas da Apple podem ser comparadas com o modelo chinês moderno grande (Qwen3.5 0.8B), abrindo caminho para novas formas de jogar com Mac localmente e com IA eficiente.

Melhores
Classificação
Favoritos
