البنتاغون يرفض تجديد المحادثات مع Anthropic بسبب Claude

أثارت نماذج الذكاء الاصطناعي من شركة Anthropic جدلاً داخل وزارة الدفاع الأمريكية، بعد أن صنفتها كخطر محتمل على سلسلة التوريد بسبب ما وصفه المسؤولون بتفضيلات سياسية مدمجة في نموذج Claude.

تفاصيل موقف البنتاغون

صرح Emil Michael، المدير التقني لوزارة الدفاع، بأن نماذج Claude “ستلوث” سلسلة التوريد بسبب وجود “تفضيل سياسي مختلف” مدمج في سلوكها وبرمجتها الأساسية، مؤكداً أنه لا يمكن السماح لنموذج الذكاء الاصطناعي بالتأثير على فعالية المعدات العسكرية والوقاية للعسكريين.

أبرز ما جاء في تصريحات المسؤولين:

  • رفض تجديد المحادثات مع Anthropic أو متابعة التعاون العسكري معها.
  • اعتبار شركة Anthropic أول شركة أمريكية تُصنف علناً كخطر على سلسلة التوريد، وهو تصنيف كان يُقتصر تاريخياً على الدول الأجنبية.
  • إلزام المقاولين الدفاعيين والشركات الموردة بعدم استخدام نماذج Claude في أعمالهم مع البنتاغون.
  • التأكيد على أن القرار ليس عقابياً، بل يهدف لحماية فعالية المعدات العسكرية.
  • الإشارة إلى أن Anthropic تمتلك نشاطاً تجارياً كبيراً، لكن جزءاً صغيراً منه مرتبط بالحكومة الأمريكية.
  • نفي الشائعات التي تقول إن وزارة الدفاع تحث الشركات على عدم استخدام نماذج Anthropic خارج سلسلة التوريد.

من جهة أخرى، رفعت الشركة دعوى قضائية ضد الإدارة الأمريكية، معتبرة الإجراءات “غير مسبوقة وغير قانونية”، مع تحذير من تأثيرها على عقود تقدر بمئات الملايين من الدولارات.

الأهداف المستقبلية والتأثيرات

يهدف البنتاغون من خلال هذا القرار إلى ضمان عدم تأثير نماذج الذكاء الاصطناعي على كفاءة الأنظمة العسكرية، مع الانتقال التدريجي لموردين بديلين.

أهم الأهداف تشمل:

  • الحفاظ على موثوقية سلسلة التوريد الدفاعية.
  • ضمان أن الذكاء الاصطناعي لا يفرض تفضيلات خارجية على القرارات التشغيلية.
  • تمكين الانتقال التدريجي لتكنولوجيا بديلة دون تعطيل العمليات العسكرية الجارية.
  • حماية فعالية الأسلحة والمعدات العسكرية أثناء عمليات الانتقال.

تعكس هذه القضية التحديات المتنامية التي تواجه استخدام نماذج الذكاء الاصطناعي في القطاع الدفاعي، حيث يتطلب التوازن بين الابتكار التقني وضمان الأمان العسكري سياسات صارمة وإجراءات دقيقة للحفاظ على فعالية وكفاءة العمليات.

مقالات مشابهة