لماذا يُحذّر جان لايكي من Super-PAC “Leading the Future”؟
جان لايكي، الباحث في سلامة الذكاء الاصطناعي، انتقد إطلاق “Leading the Future” ــ Super-PAC مؤيّد للذكاء الاصطناعي، تمويلها يفوق 100 مليون دولار من a16z، وغريغ بروكمان وآخرين, واعتبرها “أخبار سيئة لسلامة الذكاء الاصطناعي”.

ما قاله لايكي وما يثير القلق
إليك النقاط الرئيسية التي أثارها جان لايكي بخصوص حملة Leading the Future والسياسات المرتبطة بها:
- الحملة تسعى لمقاومة تنظيمات الذكاء الاصطناعي، عن طريق دعم مرشحين سياسيين ضد تشريعات الرقابة أو القوانين التي تقنن استخدام الذكاء الاصطناعي.
- الجهات المموّلة قوية اقتصاديًا، مما يمنحها قدرة على التأثير في السياسات العامة وصياغة التشريعات بما يخدم مصالح شركات الذكاء الاصطناعي.
- لايكي يربط بين هذا التمشي والتجربة في حملات مشابهة مثل Fairshake في قطاع العملات المشفّرة، حيث تُستخدم النفوذ الإعلامي والمالي لتشكيل مواقف سياسية بطريقة استراتيجية.
- تحذيره أن هذه الاستراتيجية قد تؤدي إلى تأخّر سن قوانين الذكاء الاصطناعي المهمة أو إلى تشريعات أقل صرامة، مما يعرّض المجتمع لمخاطر محتملة من الذكاء الاصطناعي غير المنظّم.
لماذا هذا مهم الآن؟
الأمور المهمة التي تجعل كلام جان لايكي ذا صلة كبيرة حالياً:
- الذكاء الاصطناعي يدخل مرحلة جديدة من التأثير على الاقتصادات والمجتمعات، ما يجعل التشريعات والتنظيمات أكثر إلحاحًا.
- الشركات الكبرى والمستثمرون يستخدمون الموارد لخفض العقبات التنظيمية، وهذا قد يُفقد الأفراد والمجتمع القدرة على حماية السلامة أو الحقوق.
- التأثير المسبق للسياسة على الابتكار والمسؤولية: إن تُركت الأمور دون تنظيم مناسب، قد يحدث تقدم سريع في التكنولوجيا بدون مراعاة كافية للمخاطر.
الأهداف المستقبلية
تركّز رؤية لايكي على أهداف واضحة لضمان سلامة الذكاء الاصطناعي في المدى الطويل، وأبرزها:
- بناء إطار تنظيمي مرن يوازن بين الابتكار والحماية المجتمعية.
- تعزيز الشفافية من خلال إلزام الشركات بإصدار بطاقات نماذج (Model Cards) وأطر السلامة.
- تطوير لوائح مرحلية تبدأ من تنظيمات خفيفة مثل SB 53، قبل الانتقال لتشريعات أوسع وأكثر صرامة.
- تقوية دور المجتمع المدني والباحثين في النقاش العام حول مخاطر الذكاء الاصطناعي.
- ضمان أن تكون القرارات السياسية مبنية على تقييم المخاطر الواقعية لا على النفوذ المالي للمستثمرين.
نقد جان لايكي لـ “Leading the Future” يذكّرنا أن المال والنفوذ السياسي يمكن أن يشكّلا بعداً مهماً في كيفية تطوّر السياسات المرتبطة بالذكاء الاصطناعي. لضمان سلامة الذكاء الاصطناعي، ليس كافياً أن تُبنى التكنولوجيا قوية فقط، بل يجب أن تُبنى ممارسات تنظيمية شفافة، عادلة، وتستبق المخاطر بدل أن تلاحقها.
