CNRS يحظر على موظفيه استخدام شات بوتات الذكاء الاصطناعي

أعلن المركز الوطني للبحث العلمي في فرنسا (CNRS) اليوم قرارًا يقضي بحظر استخدام شات بوتات الذكاء الاصطناعي العامة الخارجية من قبل موظفيه في سياق العمل، مع اعتماد أداة محلية بديلة، في خطوة تؤكد تزايد مخاوف المؤسسات البحثية من الاعتماد على خدمات خارجية غير محكومة بقواعد أمان وخصوصية تتناسب مع طبيعة العمل العلمي.

شات ذكاء صناعي

تفاصيل القرار

المؤسسة البحثية الفرنسية، التي تعد واحدة من أكبر الهيئات العلمية في أوروبا، قررت تقييد استخدام نماذج الذكاء الاصطناعي العامة – مثل ChatGPT، أو Gemini، أو أي أداة خارجية مشابهة – خلال أنشطة موظفيها، مع فتح إمكانية الاستفادة فقط من الحلول المعتمدة داخليًا، وذلك للأسباب التالية:

  • تم إطلاق وكيل دردشة ذكاء اصطناعي داخلي باسم Emmy مخصص لدعم الباحثين في مهام مثل الترجمة، تلخيص الوثائق، والمساعدة في البحث العلمي.
  • الإدارة ترى أن اعتماد أنظمة خارجية غير محكومة قد يعرّض بيانات العمل العلمي إلى مخاطر خصوصية، تسرب معلومات، وعدم امتثال للأنظمة الأوروبية مثل GDPR.
  • الحظر يشمل أي خدمات ذكاء اصطناعي كبيرة متاحة للجمهور لا تعمل على بنيات داخلية أو لا تخضع لرقابة مؤسسية مباشرة.
  • المبادرة تأتي ضمن جهود أوسع لتعزيز السيادة الرقمية الأوروبية وتقليل الاعتماد على مزودي الذكاء الاصطناعي الأمريكيين أو الآسيويين.
  • هذه الخطوة تعد “غير مسبوقة في عالم البحث العلمي” في فرنسا، وقد تصبح نموذجًا لمؤسسات أخرى مشابهة.

الأداة الداخلية Emmy التي طُوّرت بالتعاون مع شركة Mistral يمكنها دعم حوالي 35,000 عامل وموظف لدى المؤسسة، وهي مصممة لضمان حماية البيانات داخل منظومة تمتثل للتشريعات الأوروبية.

لماذا يهم قرار حظر شات بوتات الذكاء الاصطناعي

هذه الخطوة تعكس توجهًا أوسع في المؤسسات العلمية الكبرى نحو تنظيم استخدام تقنيات الذكاء الاصطناعي داخل بيئات العمل الحساسة، خصوصًا تلك التي تتعامل مع بحوث متقدمة أو معلومات غير منشورة. إنها محاولة لضمان أمان البيانات، الامتثال القانوني، وترشيد الاعتماد على خدمات أجنبية خارج الرقابة المؤسسية، كما أنها قد تكون إشارة لبداية سياسات مماثلة في القطاعات الأكاديمية والبحثية حول العالم.

قرار CNRS بمنع استخدام شات بوتات الذكاء الاصطناعي العامة في سياق العمل وتفضيل الحلول الداخلية يعكس تصاعد المخاوف المتعلقة بحماية البيانات العلمية والخصوصية. ومع استمرار تطور أدوات الذكاء الاصطناعي وتوسع استخدامها في البحث والتعليم، فإن مثل هذه السياسات قد تصبح أكثر انتشارًا لضمان التوازن بين الابتكار والتحكم.

مقالات مشابهة