Anthropic

Pentagon وAnthropic يتصادمان حول الذكاء الصناعي العسكري

دخلت وزارة الدفاع الأميركية في خلاف مع شركة Anthropic المطورة لنماذج الذكاء الاصطناعي حول ضوابط تمنع الحكومة من استخدام تقنياتها لأغراض الأسلحة الذاتية أو المراقبة الداخلية داخل الولايات المتحدة، في خطوة تعكس التوتر المتصاعد بين متطلبات الأمن القومي والقيود الأخلاقية التي تسعى الشركات إلى فرضها.

تفاصيل الخبر

تمثل المفاوضات حالة اختبار مبكرة لقدرة شركات وادي السيليكون على التأثير في كيفية توظيف الجيش والأجهزة الاستخباراتية للذكاء الاصطناعي المتقدم.

  • النقاشات تجري ضمن عقد قد يصل إلى 200 مليون دولار، وقد توقفت المفاوضات مؤخرًا عند حالة جمود.
  • شركة Anthropic أبدت مخاوف من استخدام أدواتها للتجسس على الأميركيين أو دعم استهداف الأسلحة بدون إشراف بشري كافٍ.
  • وزارة الدفاع الأميركية (التي أعيدت تسميتها باسم Department of War في إدارة ترامب) تصر على إمكانية نشر تقنيات AI التجارية طالما أنها ملتزمة بالقانون الأميركي.
  • الشركة أكدت أن تقنياتها “تُستخدم على نطاق واسع في مهام الأمن القومي” وأن المناقشات مع الوزارة مستمرة لإيجاد طرق لاستمرار التعاون.
  • الخلاف يأتي في وقت حساس للشركة، التي تستعد لجولة اكتتاب عام أولي وتسعى إلى لعب دور نشط في صياغة سياسات AI الحكومية.
  • Anthropic هي واحدة من عدد قليل من مطوري الذكاء الاصطناعي الذين حصلوا على عقود مع البنتاغون، إلى جانب Google وxAI وOpenAI.

الأهداف المستقبلية

تسعى Anthropic لتحقيق توازن بين دعم الأمن القومي وحماية المبادئ الأخلاقية لتقنيات الذكاء الاصطناعي:

  • ضمان أن تدعم أدوات AI الدفاع الوطني دون تحويلها إلى أدوات للمراقبة الداخلية أو الهجمات الذاتية.
  • الحفاظ على إشراف بشري على العمليات الحساسة عند استخدام تقنياتها.
  • توسيع التعاون مع الجيش الأميركي بشكل يتوافق مع معايير السلامة والأخلاقيات.
  • لعب دور مؤثر في وضع سياسات استخدام الذكاء الاصطناعي في المجال العسكري.

ختامًا، يسلط هذا النزاع الضوء على الصراع المستمر بين الابتكار التكنولوجي والسيطرة الأخلاقية، ويبرز التحديات التي تواجه الشركات الكبرى في التوفيق بين مصالحها التجارية ومتطلبات الأمن القومي الأميركي.

مقالات مشابهة