إطار الشفافية من Anthropic: خطوة لضمان أمان الذكاء الاصطناعي
كشفت Anthropic عن إطار شفافية جديد يهدف لإلزام شركات الذكاء الاصطناعي الكبرى بالكشف عن خطط تقييم المخاطر، حماية المبلغين، وبطاقات النظام.

تفاصيل الخبر
في ظل التطور السريع للذكاء الاصطناعي، طرحت شركة Anthropic إطارًا للشفافية يركز على أنظمة الذكاء الاصطناعي المتقدمة (Frontier AI)، لتحديد قواعد واضحة للمساءلة والشفافية، دون إبطاء الابتكار.
- الإطار مخصص فقط لأكبر مطوري نماذج الذكاء الاصطناعي، لتجنب الضغط على الشركات الناشئة والمطورين الصغار.
- يُشترط على المطورين الكبار تقديم Secure Development Framework علني، مع تدابير حماية ضد المخاطر البيولوجية أو النووية أو من الانحراف الذاتي للنموذج.
- يجب نشر بطاقة نظام (System Card) توضح طرق الاختبار والتقييم والتخفيف من المخاطر، وتحديثها في حال تطوير النموذج.
- يُعد الإدلاء ببيانات كاذبة بشأن الالتزام بالإطار القانوني انتهاكًا، ما يُفعل تلقائيًا حماية المبلغين عن المخالفات.
- يُطلب نشر الوثائق على موقع إلكتروني رسمي تابع للشركة، مع إمكانية تنقيح المعلومات الحساسة.
- لا يفرض الإطار معايير صارمة، بل يدعو لمرونة تتماشى مع التغيرات التقنية السريعة.
الأهداف المستقبلية
يهدف الإطار المقترح إلى تحقيق التوازن بين الابتكار والسلامة، من خلال:
- تمكين الحكومات والباحثين من مراقبة مدى أمان النماذج المطروحة.
- تأسيس قواعد موحدة يمكن تطويرها مع نضج تقنيات الذكاء الاصطناعي.
- توفير الأدلة لصانعي القرار حول الحاجة إلى تنظيمات أوسع.
- المساهمة في تجنب الكوارث المحتملة بسبب سوء استخدام الذكاء الاصطناعي.
يمثل إطار الشفافية من Anthropic خطوة واقعية لتأمين مستقبل الذكاء الاصطناعي، من خلال تنظيم طوعي قابل للتطوير، يضمن السلامة دون كبح الابتكار.