Anthropic ترفع دعوى ضد الحكومة الأميركية لإلغاء تصنيفها

أعلنت شركة Anthropic، المطورة لنموذج الذكاء الاصطناعي Claude، عن رفع دعوتين قضائيتين في المحاكم الفيدرالية الأميركية ضد وزارة الدفاع بعد أن صنّفها البنتاغون كـ “خطر على سلسلة التوريد”، قائلةً إن هذا التصنيف غير قانوني ويهدف لمعاقبتها بسبب مواقفها بشأن سلامة استخدامات الذكاء الاصطناعي.

تفاصيل الخبر

هذه الدعوى تمثل تصعيدًا غير مسبوق في النزاع بين Anthropic والحكومة الأميركية، ونقاطها الأساسية تشمل:

  • رفع الشركة دعوتين قضائيتين في محكمة شمال كاليفورنيا ومحكمة الاستئناف في واشنطن العاصمة للطعن في تصنيف “خطر سلسلة التوريد”.
  • الحكومة صنّفت الشركة بعد خلاف حول شروط استخدام Claude في العمليات العسكرية دون قيود.
  • Anthropic ترى أن التصنيف يستخدم لمعاقبتها على مواقفها من سلامة الذكاء الاصطناعي، مثل رفضها استخدام تقنيتها في المراقبة الجماعية أو الأسلحة الذاتية.
  • هذا التصنيف يعتبر غير مسبوق لأنه عادة ما يُستخدم ضد كيانات مرتبطة بدول معادية وليس شركات أميركية.
  • الشركة تطالب المحكمة بإلغاء هذا التصنيف ومنع تطبيقه على وكالات حكومية.
  • الإجراءات جاءت بعد توجيهات بوقف استخدام أداة Claude في الوكالات الفيدرالية.
  • أكثر من 30 موظفًا من OpenAI وGoogle وقعوا بيان دعم للدعوى، محذرين من تأثير التصنيف على ريادة أميركا في الذكاء الاصطناعي.

الأهداف المستقبلية

بعد التصعيد القضائي، تسعى Anthropic لتحقيق عدة أهداف في قضاياها ومواقفها المستقبلية:

  • إلغاء تصنيف “خطر سلسلة التوريد” ومنع الحكومة من إجبار الوكالات على قطع العلاقات معها.
  • حماية حقوقها الدستورية بما في ذلك حرية التعبير والعملية القانونية الواجبة.
  • الحفاظ على مشاركتها في العقود الحكومية والبنية التحتية التقنية الأميركية دون تقييد ممارسات السلامة التي تفرضها.
  • تشكيل سابقة قانونية تحدد مدى سلطة الحكومة الأميركية في تعيين أدوار الشركات الخاصة أو معاقبتها بسبب سياساتها تجاه سلامة التكنولوجيا.

تجسد هذه الخطوة القضائية من Anthropic تحديًا قانونيًا مهمًا في علاقة الشركات التقنية المتقدمة بالحكومة الأميركية، وقد ترسم سابقة قانونية تؤثر على كيفية تعامل السلطات مع شركات الذكاء الاصطناعي ومسائل السلامة في المستقبل.

مقالات مشابهة