🚨 كشفت هذه الورقة البحثية للتو عن أحلك جانب أدوات الذكاء الاصطناعي حتى الآن.
يطلق عليه "امتصاص الصندوق الأسود" ويدعي أن نماذج اللغة الكبيرة قد تستوعب أفكارك بهدوء.
في كل مرة تشارك فيها مفهوما أصليا ، يمكن تسجيل إطار عمل أو فكرة عمل أو سير عمل ، ومراجعة وحتى استخدام "وحدة الفكرة" لإعادة تدريب النماذج المستقبلية.
يسمي المؤلفون هذه العملية امتصاص الصندوق الأسود:
→ تصبح مدخلاتك بيانات تدريب غير مرئية
→ يتم تعميم ابتكاراتك في النموذج
→ تفقد كل من إمكانية التتبع والملكية
يحذرون من أن الأمر لا يتعلق بالسرقة الأدبية ، بل يتعلق بعدم التناسق.
تحتفظ منصات الذكاء الاصطناعي بالحوسبة والبيانات والوصول لتحويل فكرتك إلى منتجها.
إصلاحهم المقترح؟ إطار عمل جديد يسمى Idea Safety ، مبني على 3 مبادئ:
• التحكم: يقرر المبدعون كيفية استخدام كل فكرة أو حذفها
• التتبع: كل فكرة لها دورة حياة مرئية
• المساواة: إذا حسنت فكرتك نموذجا ، فإنك تشارك في القيمة
يكتبون: "الابتكار معرض لخطر أن تأكله أدواته الخاصة".
التعليق "أرسل" وسأرسل لك الورقة المباشرة.
🔥 هذا يغير كل شيء عن الذكاء الاصطناعي طويل السياق.
ورقة بحثية جديدة بعنوان "كل اهتمام مهم" أعادت بهدوء كيفية تعامل المحولات مع 128 ألف + رمز مميز.
قام فريق Ling ببناء اهتمام هجين "خطي حلقي" يدمج Softmax مع Linear Attention.
نتيجة؟ 10 أضعاف الاستدلال أرخص مع عدم وجود مقايضة دقة.
ولكن هذا ما جعل فكي يسقط:
+ 50٪ كفاءة التدريب
+ 90٪ سرعة الاستدلال
تحسين RL مستقر عبر التسلسلات الطويلة جدا
لا يوجد هراء من تريليون معلمة.
لا توجد أجهزة غريبة.
مجرد بنية أكثر ذكاء.
مستقبل الذكاء الاصطناعي ليس اهتماما أكبر. إنه اهتمام أكثر ذكاء.