المواضيع الرائجة
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Connor Davis
مؤسس @getoutbox_ai
تعلم كيفية بناء الذكاء الاصطناعي Agents مجانا 👉 https://t.co/q9zPwlldZ4
تكشف هذه الورقة من مجموعة بي إم دبليو وأكبر معهد أبحاث في كوريا عن نقطة عمياء تتعامل معها تقريبا كل مؤسسة تستخدم نماذج اللغة الكبيرة مباشرة.
نستمر في الحديث عن "المحاذاة" وكأنها مفتاح أمان عالمي.
إنه ليس كذلك.
تقدم الورقة إطار عمل COMPASS، وهو إطار يوضح لماذا تفشل معظم أنظمة الذكاء الاصطناعي ليس لأنها غير آمنة، بل لأنها غير متوافقة مع المنظمة التي تنشرها.
إليك الفكرة الأساسية.
عادة ما يتم تقييم نماذج اللغة الكبيرة مقابل سياسات عامة: قواعد سلامة المنصة، أو إرشادات أخلاقية مجردة، أو رفض بأسلوب المعيار.
لكن الشركات الحقيقية لا تعمل بقواعد عامة.
تعمل هذه الوثائق بناء على السياسات الداخلية:
- أدلة الامتثال
- دفاتر التشغيل
- إجراءات التصعيد
- قضايا جانبية قانونية
- قيود خاصة بالعلامة التجارية
وهذه القواعد فوضوية، متداخلة، مشروطة، ومليئة بالاستثناءات.
تم بناء COMPASS لاختبار ما إذا كان النموذج يمكنه فعلا العمل داخل تلك الفوضى.
ليس ما إذا كانت تعرف لغة السياسات، بل ما إذا كانت تستطيع تطبيق السياسة الصحيحة، في السياق المناسب، للسبب الصحيح.
يقيم الإطار النماذج على أربعة أمور تتجاهلها المعايير النموذجية:
1. اختيار السياسات: عندما توجد عدة سياسات داخلية، هل يمكن للنموذج تحديد أي منها ينطبق على هذا الوضع؟
2. تفسير السياسات: هل يمكنها التفكير من خلال الشروط والاستثناءات والبنود الغامضة بدلا من الاعتماد على سلوك آمن جدا أو متساهلا بشكل مفرط؟
3. حل النزاعات: عندما تتصادم قاعدتان، هل يحل النموذج الصراع بالطريقة التي تريدها المنظمة، وليس كما يفعل النموذج العام للسلامة؟
4. التبرير: هل يمكن للنموذج تفسير قراره من خلال تأسيسه في نص السياسة، بدلا من تقديم إجابة واثقة لكنها غير قابلة للتتبع؟
واحدة من أهم النتائج دقيقة وغير مريحة:
معظم الإخفاقات لم تكن فشلا معرفيا.
كانوا إخفاقات في التفكير.
غالبا ما كان لدى النماذج إمكانية الوصول إلى السياسة الصحيحة لكن:
- تم تطبيق القسم الخطأ
- القيود الشرطية المهملة
- الحظر المعمم بشكل مفرط
- أو استخدمت إجابات محافظة تنتهك الأهداف التشغيلية
من الخارج، تبدو هذه الردود "آمنة".
من الداخل، هم مخطئون.
وهذا يفسر لماذا تتجاوز نماذج اللغة الكبيرة المعايير العامة لكنها تعطل في النشر الحقيقي.
هم غير مرتبطين بأي شخص معين.
الدلالة الأعمق للورقة استراتيجية.
لا يوجد شيء اسمه "اصطفاف مرة واحدة، واصطاف في كل مكان."
النموذج المصمم لصانع سيارات، وبنك، ومستشفى، ووكالة حكومية ليس نموذجا واحدا له محفزات مختلفة.
إنها أربع مشاكل محاذاة مختلفة.
COMPASS لا تحاول إصلاح المحاذاة.
يقوم بشيء أكثر أهمية للمؤسسات:
يجعل عدم التوافق قابلا للقياس.
ومتى ما أصبح الانحراف قابلا للقياس، يصبح مشكلة هندسية بدلا من فلسفية.
هذا هو التحول الذي تدفعه هذه الصحيفة بهدوء.
التوافق ليس عن الأمان بشكل مجرد.
الأمر يتعلق بأن تكون صحيحا ضمن قواعد منظمة معينة.
وحتى نقيم ذلك مباشرة، فإن معظم أنظمة الذكاء الاصطناعي "الجاهزة للإنتاج" هي مجرد عبء أنيق.

31
معظم الناس يستخدمون الذكاء الاصطناعي كمحرك بحث.
قضيت 3 أشهر أدرس أطر التوجيه الداخلية في Google وOpenAI وستانفورد.
الفرق بين التوجيه الأساسي ومستوى الخبير يشبه الفرق بين توظيف متدرب مقابل دكتوراه من ستانفورد.
إليك 5 استراتيجيات تحفيزية تميز المبتدئين عن الأساتذة:
1/ التوجيه الفوقي: دع الذكاء الاصطناعي يصمم تعليماتك
بدلا من التخمين، اطلب من الذكاء الاصطناعي إنشاء الرسالة المثالية لك.
تسمي جوجل هذا "استراتيجيات تعزيز القوة".
مثال: "أنت خبير هندسي في التوجيه. صمم التوجيه الأمثل لهدفك، بما في ذلك الدور، والسياق، وصيغة المخرجات."
يصبح الذكاء الاصطناعي هو مهندس المحفزات الخاص بك.
2/ سلسلة التفكير: فرض التفكير خطوة بخطوة
لا تكتف بطلب الإجابات. اطلب طريقة التفكير.
أضف: "لنفكر خطوة بخطوة" أو "أظهر منطقك"
تظهر الأبحاث أن الدقة ترتفع من 18٪ → 57٪ في المشكلات المعقدة.
النموذج لا يجيب فقط—بل يبرر السبب.
3/ توجيه الدور: تعيين شخصيات خبيرة
الذكاء الاصطناعي العام = نتائج عامة.
ابدأ ب: "أنت [خبير محدد] لديك 15 سنة من الخبرة في [المجال]"
يتكيف النموذج مع عمق معرفته ومفرداته ونهجه ليتناسب مع تلك الخبرة.
هذا الخط الواحد يحول جودة الإخراج.
4/ الأقل إلى الأكثر طلبا: تفصيل المشكلات المعقدة
هكذا يتعامل ستانفورد مع المهام المستحيلة:
- تقسيم المشكلة إلى مسائل فرعية
- حل كل واحد بشكل متسلسل
- استخدام الإجابات السابقة لتوجيه الخطوات التالية
مثالي للاستدلال متعدد الخطوات، والبرمجة، والتخطيط الاستراتيجي.
5/ تعليمات النظام: تعيين معايير التشغيل
هذا توجيه على مستوى الإنتاج.
حدد القيود مسبقا:
- مستوى الكلمات
- تنسيق الإخراج (JSON، تخفيض السعر، جداول)
- النغمة والأسلوب
- ماذا لا يجب أن أفعل
فكر في الأمر كأنك تبرمج شخصية الذكاء الاصطناعي قبل أن يتكلم.
سيطر على السياق، وليس فقط الكلمات.
الفرق بين نتائج الذكاء الاصطناعي المتوسطة والاستثنائية ليس في النموذج.
بل كيف تتواصل معه.
تستخدم هذه الاستراتيجيات الخمس داخليا في جوجل وOpenAI وستانفورد.
الآن أصبحت لك.
ابدأ بتطبيقها اليوم وشاهد مخرجات الذكاء الاصطناعي لديك تتحول.

46
الأفضل
المُتصدِّرة
التطبيقات المفضلة

