Anthropic تكشف عن تحديث هام لسياسة الأمان الخاصة بالذكاء الاصطناعي
أعلنت شركة Anthropic عن تحديث كبير لسياسة التوسع المسؤول الخاصة بها، مقدمة تدابير أمان جديدة وإجراءات حوكمة للأنظمة المتقدمة للذكاء الاصطناعي، مع تسليط الضوء على معايير جديدة تتطلب بروتوكولات أمان إضافية.
تفاصيل الخبر
تتضمن السياسة الجديدة معايير “القدرة” و”المطلوبة” لتفعيل تدابير الأمان المحسنة عندما تصل نماذج الذكاء الاصطناعي إلى مستويات خطورة معينة. يركز العتبتان الجديدتان على قدرات الذكاء الاصطناعي المتعلقة بالأسلحة البيولوجية والبحث الذاتي المستقل. أكدت Anthropic على ضرورة أن تكون النهج قائم على المخاطر “قابلة للتصدير”، على أمل أن تصبح معيارًا صناعيًا وتساعد في تشكيل التنظيم. ستقوم Anthropic بتقييم نماذج الذكاء الاصطناعي بانتظام، مع دور “مسؤول التوسع المسؤول” للإشراف على تنفيذ السياسة والامتثال. كما تعهدت الشركة بزيادة الشفافية، بما في ذلك الكشف العام عن تقارير القدرات والاستعانة بمدخلات خبراء خارجيين.
الأهداف المستقبلية
يمثل تحديث Anthropic أحد أكثر الأطر شمولاً حتى الآن لتطوير الذكاء الاصطناعي المتقدم بشكل مسؤول، ويواصل تعزيز مكانة الشركة كالمختبر الذي يركز على الأمان. قد تمهد هذه الخطوة أيضًا لتسارع كبير في إصدارات جديدة في المستقبل القريب.