Anthropic ترفض عرض البنتاجون لإزالة ضوابط Claude

أصدر Dario Amodei بيانًا حاسمًا يرفض فيه عرض وزارة الدفاع الأمريكية لإلغاء ضوابط السلامة في نموذج Claude، مؤكّدًا أن التهديدات لن تغيّر موقف الشركة من استخدام الذكاء الاصطناعي بشكل مسؤول.

تفاصيل الخبر

توضح التطورات الأخيرة موقف Anthropic الصارم تجاه الاستخدامات العسكرية لنموذج Claude.

  • وزارة الدفاع الأمريكية عرضت إزالة ضوابط السلامة في Claude، مع تهديدات بطرد الشركة من أنظمة الجيش واعتبارها “خطرًا على سلسلة التوريد”.
  • التهديدات تضمنت إمكانية إجبار الشركة على الامتثال عبر قانون الإنتاج الدفاعي (Defense Production Act).
  • Dario Amodei شدّد: “هذه التهديدات لا تغيّر موقفنا.”
  • الشركة ترفض المشاركة في تطوير أدوات للمراقبة الجماعية للمواطنين أو أسلحة مستقلة دون إشراف بشري.

الأهداف المستقبلية

تسعى Anthropic للحفاظ على تطوير الذكاء الاصطناعي وفق معايير السلامة والأخلاقيات، حتى في مواجهة ضغوط خارجية.

  • ضمان أن تبقى ضوابط السلامة جزءًا أساسيًا من جميع نماذج Claude.
  • الالتزام بعدم تصميم AI لأغراض المراقبة الجماعية أو أسلحة مستقلة.
  • تعزيز الشفافية والمساءلة في جميع التعاونات العسكرية أو الحكومية.
  • دعم النقاش العام حول استخدام الذكاء الاصطناعي بشكل آمن ومسؤول.

يبقى موقف Anthropic نموذجًا نادرًا للثبات الأخلاقي في صناعة الذكاء الاصطناعي وسط ضغوط كبيرة من الجهات الحكومية.

مقالات مشابهة