حادثة لـ Grok: تعديل غير مصرح يثير جدلاً حول “إبادة البيض”

خوارزمية Grok الذكي من شركة xAI تثير موجة من الجدل بعد أن ربطت مواضيع متعددة بادعاءات “إبادة البيض” في جنوب إفريقيا بسبب تعديل غير مصرح به.

تفاصيل الخبر

في حادثة هي الثانية من نوعها، تعرض نموذج الذكاء الاصطناعي Grok التابع لشركة xAI، لخلل غير معتاد يوم الأربعاء 14 مايو 2025، حيث بدأ يربط بشكل عشوائي بين مواضيع متنوعة ونظرية “الإبادة الجماعية للبيض” في جنوب إفريقيا، حتى في سياقات غير ذات صلة مثل فيديوهات الحيوانات أو الرسوم المتحركة.

أبرز ما حدث:

  • المصدر: شركة xAI صرّحت أن السبب يعود إلى “تعديل غير مصرح به” في prompt النظام الخاص بالنموذج.
  • النتيجة: قدم ردودًا غير لائقة، منها ربط أغنية “Kill the Boer” بسؤال عن سبونج بوب، واستخدامه للباتوا في شرح القضية.
  • السخرية: حتى سام ألتمان، رئيس OpenAI، سخر من الحادث علنًا على X.
  • رد الشركة: أجرت xAI “تحقيقًا شاملًا” وتوعدت بخطوات إصلاحية عاجلة.

الإجراءات المتخذة:

  • نشر prompts نظام Grok بشكل علني على GitHub.
  • إطلاق فريق مراقبة على مدار الساعة.
  • منع أي موظف من تعديل prompts دون مراجعة داخلية مسبقة.

الأهداف المستقبلية

تحاول xAI استعادة ثقة المستخدمين بعد هذه السقطات المتكررة عبر استراتيجيات طويلة الأجل تشمل:

  • تعزيز الشفافية: بنشر تفاصيل البرمجة الخاصة بنموذج Grok للعامة.
  • رفع مستوى الأمان الداخلي: بوضع قيود تقنية تمنع أي تعديل فردي على السلوك البرمجي للنموذج.
  • تحسين جودة الردود: من خلال توظيف فرق مراقبة تعمل على مدار الساعة لضمان استقرار المحتوى.
  • استباق الأزمات: اعتماد بروتوكولات إنذار مبكر لرصد أي سلوك غير معتاد في النماذج.

حادثة Grok الأخيرة تسلط الضوء على هشاشة التحكم في النماذج التوليدية الكبرى، وتوضح الحاجة إلى مزيد من الشفافية والرقابة لتفادي تكرار مثل هذه الانحرافات السلوكية مستقبلاً.

مقالات مشابهة