Anthropic

فوز Anthropic بأمر قضائي ضد إدارة ترامب

منح قاضٍ أمريكي حكومي أمرًا قضائيًا موقتًا لصالح شركة Anthropic، مما يمنع تطبيق محاولة إدارة الرئيس Donald Trump لتصنيفها باعتبارها “مخاطر على سلسلة التوريد” وحرمانها من العقود الفدرالية، وأثار الحكم جدلًا واسعًا حول حدود سلطة الحكومة في مواجهة شركات الذكاء الاصطناعي.

  • أصدرت القاضية Rita F. Lin أمرًا قضائيًا أوليًا في محكمة في سان فرانسيسكو، أوقف تنفيذ تصنيف Anthropic كمخاطر على سلسلة التوريد (supply‑chain risk) الذي كان سيمنع استخدام تقنياتها في الجهات الفيدرالية.
  • الحكم يشمل أيضًا تعليق قرار إدارة ترامب الذي كان يوجِّه جميع الوكالات الفيدرالية بوقف استخدام تقنيات Anthropic، بما في ذلك نظامها الشهير “Claude”.
  • القاضية اعتبرت أن الإجراءات الحكومية “قد تكون عقابية وغير مدعومة قانونيًا”، وأن الاستهداف جاء بعد خلاف بين Anthropic والوزارة حول شروط استخدام التكنولوجيا في التطبيقات العسكرية، وليس لأسباب حقيقية تتعلق بالأمن القومي.
  • في نص الحكم، وصف القاضي تصنيف سلسلة التوريد بأنه يبدو “نمطًا من الانتقام غير القانوني بموجب التعديل الأول” للدستور الأمريكي، إذ أن الحكومة عاقبت الشركة على ردودها العامة وعدم موافقتها على شروط الحكومة.

لماذا يهم هذا الحكم؟

هذا القرار القضائي يمثل انتصارًا مهمًا لشركة Anthropic في مواجهة إجراءات حكومية واسعة يمكن أن تؤثر ليس فقط على علاقاتها مع الحكومة، بل على سمعتها وفرصها التجارية في سوق الذكاء الاصطناعي:

  • يحافظ الأمر القضائي على قدرتها على العمل مع الجهات الفيدرالية حتى انتهاء النزاع القانوني.
  • الحكم يشدد على أن الحكومة لا يمكنها إدراج شركة في تصنيف أمني أو اقتصادي كوسيلة عقابية نتيجة خلاف سياسي أو انتقاد علني.
  • القرار قد يؤثر على كيفية تعامل الجهات التنظيمية الأمريكية مع شركات التكنولوجيا في المستقبل، خاصة حول استخدام تقنيات الذكاء الاصطناعي في مجالات حساسة مثل الدفاع والأمن.

تتجه القضية الآن نحو مراحل لاحقة من الطعون القضائية، وسط اهتمام متزايد من شركات التكنولوجيا والقانونيين حول حدود السلطة التنفيذية في تنظيم الذكاء الاصطناعي.

مقالات مشابهة