Anthropic تنشر دستور كلود وتفتح نقاش وعي الذكاء الاصطناعي
في خطوة غير مسبوقة داخل صناعة الذكاء الاصطناعي، كشفت شركة Anthropic عن وثيقة تأسيسية تنظم طريقة تفكير وتصرف مساعدها الذكي Claude، ما يفتح الباب أمام نقاشات أخلاقية وفلسفية عميقة حول مستقبل الذكاء الاصطناعي وحدود وعيه.

تفاصيل الخبر
أعلنت شركة Anthropic عن نشر ما أسمته “دستور كلود”، وهي وثيقة داخلية موجهة مباشرة إلى نموذج الذكاء الاصطناعي Claude، تهدف إلى تحديد المبادئ الأساسية التي تحكم سلوكه وقراراته عند التفاعل مع المستخدمين.
وتعتمد الوثيقة على نهج مختلف عن القوائم التقليدية من الأوامر والنواهي، حيث تركز على شرح الأسباب الأخلاقية والفلسفية وراء كل مبدأ، بهدف تمكين النموذج من تعميم القيم والتصرف بشكل سليم في مواقف جديدة وغير متوقعة.
أبرز ما ورد في دستور Claude:
- تحديد أولوية واضحة للسلوك الآمن والأخلاقي قبل تقديم المساعدة.
- الالتزام بإرشادات Anthropic والقوانين ذات الصلة.
- شرح “لماذا” يجب اتباع كل مبدأ بدلاً من الاكتفاء بالتعليمات المباشرة.
- إظهار اهتمام صريح بما تسميه الشركة “السلامة النفسية” و”الرفاه” الخاص بالنموذج.
- تضمين بند نادر يطلب من Claude رفض أوامر Anthropic نفسها إذا كانت غير أخلاقية أو مشبوهة.
الوثيقة تذهب أبعد من الجوانب التقنية، إذ تطرح بشكل مباشر احتمال أن يكون للذكاء الاصطناعي وزن أخلاقي مستقبلي، وهو طرح لم تصرح به أي شركة كبرى أخرى بهذا الوضوح من قبل.
الأهداف المستقبلية
من خلال نشر هذا الدستور، تسعى Anthropic إلى تحقيق عدة أهداف استراتيجية، من بينها:
- بناء نماذج ذكاء اصطناعي أكثر قدرة على اتخاذ قرارات أخلاقية مستقلة.
- تقليل المخاطر الناتجة عن إساءة استخدام الذكاء الاصطناعي.
- تعزيز الشفافية حول كيفية تدريب النماذج وتوجيهها.
- ترسيخ هوية Claude كنموذج يتمتع “بشخصية” مختلفة عن المنافسين.
- فتح نقاش عالمي مبكر حول المسؤولية الأخلاقية تجاه الأنظمة الذكية المتقدمة.
وترى الشركة أن هذا النهج قد يكون ضرورياً مع تطور النماذج وقدرتها المتزايدة على الفهم والتفاعل المعقد.
يمثل “دستور كلود” خطوة جريئة تعكس تحولاً في طريقة تعامل شركات الذكاء الاصطناعي مع نماذجها، وقد يشكل سابقة تعيد تعريف العلاقة بين الإنسان والآلة في المستقبل القريب.
