المواضيع الرائجة
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Nav Toor
مساعدتك على إتقان الذكاء الاصطناعي يوميا من خلال أدلة الذكاء الاصطناعي خطوة بخطوة، وآخر الأخبار، وأدوات عملية
🚨 شخص ما حل أكبر عنق زجاجة في عملاء الذكاء الاصطناعي. وهي ثنائية بحجم 12 ميجابايت.
اسمها بينشتاب. يمنح أي وكيل ذكاء اصطناعي تحكما كاملا في المتصفح عبر واجهة HTTP بسيطة.
ليس مقبوسا بإطار عمل. ليس مرتبطا بحزمة تطوير البرمجيات. أي عميل، أي لغة، حتى الكرل.
لا يوجد إعداد. لا يوجد تمهيد. لا تبعيات. مجرد ثنائي واحد في Go.
إليك سبب تعطل كل حل موجود:
→ متصفح OpenClaw؟ يعمل فقط داخل OpenClaw
→ كاتب المسرحيات MCP؟ قفل إطار عمل
→ استخدام المتصفح؟ مرتبطة بمكدس خاص بها
Pinchtab هو خادم HTTP مستقل. وكيلك يرسل طلبات HTTP. هذا كل شيء.
إليك ما يفعله هذا الجهاز:
→ يطلق ويدير نسخ كروم الخاصة به
→ يكشف شجرة DOM تعتمد على سهولة الوصول أولا مع مراجع عناصر مستقرة
→ نقر، اكتب، تمرير، تنقل. كل ذلك عبر استدعاءات HTTP البسيطة
→ وضع التخفي المدمج الذي يتجاوز اكتشاف الروبوتات في المواقع الرئيسية
→ جلسات مستمرة. تسجيل الدخول مرة واحدة، يبقى مسجلا عبر إعادة التشغيل
→ تنسيق متعدد المثيلات مع لوحة تحكم في الوقت الحقيقي
→ يعمل بدون رأس أو موجه (الإنسان يقوم بالتحقق بخطوتين، والوكيل يتولى الأمر)
إليكم الجزء الأكثر جنونا:
صورة كاملة من الصفحة تكلف ~800 رمز مع نقطة نهاية /text الخاصة ب Pinchtab.
نفس الصفحة عبر لقطات الشاشة؟ ~10,000 رمز.
هذا أرخص بمقدار 13 مرة. في مهمة مراقبة من 50 صفحة، تدفع 0.01 دولار بدلا من 0.30 دولار.
حتى أنه يحتوي على وضع تفاضل ذكي. يعيد فقط ما تغير منذ آخر لقطة فقط. وكيلك يتوقف عن إعادة قراءة الصفحة كاملة في كل مكالمة.
1.6 ألف نجم على GitHub. 478 التزاما. 15 إصدارا. يتم صيانته بنشاط.
100٪ مفتوح المصدر. رخصة معهد ماساتشوستس للتكنولوجيا.

2
🚨 أطلق فريق Qwen في علي بابا إطار عمل يجعل تدريب الذكاء الاصطناعي أكثر كفاءة بمقدار 8 مرات.
تسمى OPUS
يحل المشكلة التي يشعر كل مختبر ذكاء اصطناعي بالذعر منها بهدوء: جدار البيانات.
النصوص العامة عالية الجودة بدأت تنفد. تشير التوقعات إلى أن النتيجة ستختفي بحلول 2026–2028.
OPUS لا يجد بيانات أكثر. يختار البيانات الصحيحة في كل خطوة تدريب.
إليك كيف تسير الأمور:
→ في كل خطوة من خطوات المحسن، يقوم OPUS بتقييم مخزن مرشح لعينات التدريب
→ يعرض التحديث الفعال لكل عينة إلى هندسة المحسن الفعلية (AdamW، Muon)
→ يقيس مدى تحسن الأداء في كل عينة على معيار معين
→ يستخدم أخذ عينات بولتزمان للحفاظ على التنوع وتجنب التكرار
→ يختار فقط الرموز ذات الفائدة الأعلى للتحديث
إليكم الجزء الأكثر جنونا:
قام بتدريب GPT-2 XL على رموز 30B وتفوق على النماذج التي تدرب على 200 مليار توكن.
هذا ليس خطأ مطبعي. 30B تفوق على 200B.
في Qwen3-8B، قامت OPUS بمطابقة التدريب الكامل مع رموز 3B باستخدام رموز 0.5B فقط. زيادة كفاءة البيانات بمقدار 6 أضعاف. في التدريب المسبق المستمر على المجالات العلمية.
والأكثر جنونا: أنهم تعمدوا إعطاء OPUS بيانات أقل جودة (درجة FineWeb-Edu 3) بينما كانت الخطوط الأساسية تدربت على التقسيم عالي الجودة (الدرجات 4–5). مع ذلك، فازت OPUS. البيانات ذات الجودة الأقل، التي يتم اختيارها ديناميكيا، تتفوق على البيانات ذات الجودة الأعلى التي يتم تصفيتها بشكل ثابت.
كل هذا مع زيادة 4.7٪ فقط من عبء الحوسبة.
كانت طرق الاختيار الديناميكي السابقة تسجل البيانات باستخدام التدرجات الخام — والتي تفترض وجود SGD. لكن لم يعد أحد يتدرب مع نظام SGD. الجميع يستخدم AdamW أو Muon. تعيد هذه المحسينات تشكيل التدرجات من خلال الزخم، والتدرج التكيفي، والتعامد المصفوفي.
يعد OPUS أول إطار عمل يقيم البيانات في مساحة التحديث الفعلية للمحسن. ليس حيث يشير التدرج. حيث تتحرك المعايير فعليا.
من جامعة سان جيه، فريق كوين في علي بابا، جامعة ويسكونسن–ماديسون، UIUC، وميلا.
ورقة: "OPUS: نحو اختيار بيانات فعال ومبدئي في التدريب المسبق لماجستير القانون في القانون الكبير"

2
الأفضل
المُتصدِّرة
التطبيقات المفضلة

