البنتاغون يهدد بقطع عقد قيمته 200 مليون دولار مع Anthropic
البنتاغون يدرس إنهاء تعاقده مع شركة Anthropic، المطورة لنموذج الذكاء الاصطناعي Claude، بعد رفض الشركة السماح للجيش باستخدام النموذج في “جميع الأغراض القانونية” التي تشمل مجالات حساسة مثل تطوير الأسلحة والاستخبارات.

تفاصيل الخبر
يتصاعد التوتر بين وزارة الدفاع الأمريكية وشركة Anthropic على خلفية شروط استخدام نموذج الذكاء الاصطناعي Claude في العمليات العسكرية.
- البنتاغون يضغط على أربع شركات تقنية – من بينها Anthropic وOpenAI وGoogle وxAI – للسماح باستخدام أدوات الذكاء الاصطناعي في جميع المجالات القانونية، بما في ذلك تطوير الأسلحة وجمع المعلومات والعمليات الميدانية.
- Anthropic رفضت الاتفاق على هذا الشروط، مؤكدة أنها تفرض قيودًا صارمة على استخدام Claude في حالات مثل الأسلحة المستقلة تمامًا والمراقبة الجماعية.
- مسؤولون في البنتاغون أبدوا استياءهم بعد شهور من المفاوضات، ما دفع الوزارة إلى دراسة إنهاء العلاقة التعاقدية.
- هذا العقد مع Anthropic يُقدَّر بنحو 200 مليون دولار وهو جزء من تعاون دفاعي أوسع.
- رغم الخلاف، لا يزال النقاش جاريًا بين الطرفين حول حدود الاستخدام والسياسات الأخلاقية للتقنيات الذكية.
خلفية النزاع
يجسد هذا الخلاف التوتر بين مصالح التطوير العسكري السريع للذكاء الاصطناعي وبين التزامات بعض الشركات بمعايير سلامة وأخلاقية.
- البنتاغون يرى أن تقنيات مثل Claude يجب أن تكون متاحة للاستخدام الكامل في مهام السرية والحساسية، طالما تظل ضمن الأطر القانونية.
- Anthropic تمسك بسن “حدود استخدام” تحد من مشاركتها في أنظمة يمكن أن تتخذ قرارات قتالية أو تنفيذ مراقبة جماعية، وهي مناطق تعتبرها الشركة غير مرغوبة.
- التوتر ظهر أيضًا بعد تقارير عن استخدام النموذج في سياقات عسكرية معقدة، رغم نفي Anthropic المناقشات حول ذلك بالتفصيل.
- هذا النوع من النزاعات يعكس معركة أوسع بين شركات تكنولوجيا الذكاء الاصطناعي والجهات الحكومية حول كيفية التوازن بين الابتكار، والأمان، والأخلاق في استخدام التقنيات الحديثة.
ختامًا، يُظهر هذا الصراع كيف يمكن لتقنيات الذكاء الاصطناعي أن تصبح موضع خلاف بين سياسات الأمن القومي ومتطلبات السلامة الأخلاقية، وقد يؤثر في مستقبل الشراكات بين القطاعين الحكومي والخاص في هذا المجال الحيوي.
