Anthropic تستبدل سياسة الإيقاف بخارطة أمان مرنة
أعلنت Anthropic إصدار النسخة 3.0 من سياسة التوسّع المسؤول (RSP)، مع استبدال التزامها السابق بإيقاف تدريب النماذج إذا لم تواكب إجراءات السلامة التطور، بخارطة طريق أكثر مرونة تركّز على الشفافية والتقييم الدوري للمخاطر.

تفاصيل الخبر
جاء التحديث بعد أكثر من عامين على إطلاق السياسة الأولى، حيث اعتمدت Anthropic سابقًا على مبدأ “إذا-فإن” عبر مستويات أمان (ASL) تُفعَّل عند تجاوز قدرات معينة. لكن الشركة أقرت بوجود “منطقة غموض” في تقييم العتبات، وصعوبة فرض التزامات أحادية عند المستويات الأعلى.
- فصل التزامات الشركة الذاتية عن توصياتها للصناعة ككل.
- استبدال التعهد بإيقاف التدريب عند فجوة السلامة بخارطة أهداف علنية غير مُلزمة لكنها قابلة للتقييم.
- إطلاق “Frontier Safety Roadmap” لتحديد خطط ملموسة في الأمن، المواءمة، الضوابط، والسياسات.
- نشر تقارير مخاطر دورية كل 3–6 أشهر تتضمن تقييمًا لقدرات النماذج وتهديداتها وإجراءات الحد منها.
- إدخال مراجعة خارجية مستقلة لبعض تقارير المخاطر عند الحاجة.
- الإبقاء على مستويات الأمان (ASL) مع إعادة هيكلة كيفية تطبيقها عمليًا.
وأوضحت الشركة أن التقدم السريع في قدرات النماذج، مقابل بطء التشريعات الحكومية، إضافة إلى صعوبة تنفيذ بعض إجراءات الحماية المتقدمة بشكل منفرد، دفعها إلى إعادة تصميم الإطار ليكون “واقعيًا وقابلًا للتطبيق” في البيئة الحالية.
الأهداف المستقبلية
تهدف Anthropic من خلال النسخة الجديدة إلى تعزيز الشفافية والمساءلة، مع الحفاظ على زخم الابتكار دون الارتباط بتعهدات قد يصعب تنفيذها عمليًا في ظل التنافس العالمي.
- وضع أهداف علنية قابلة للقياس في مجالات الأمن والمواءمة.
- توسيع آليات المراجعة الخارجية لتعزيز الثقة.
- تطوير “سلم تنظيمي” يقترح سياسات تتدرج مع تصاعد المخاطر.
- مواصلة الضغط نحو معايير أمان مشتركة على مستوى الصناعة.
يمثل هذا التحديث تحولًا من نهج قائم على عتبات صارمة قد تعرقل التطوير، إلى إطار مرن يوازن بين الابتكار وإدارة المخاطر، في وقت تتصاعد فيه المنافسة العالمية على نماذج الذكاء الاصطناعي المتقدمة.
