تحديث GPT-4o يزيد من الإطراء الزائد: تفاصيل وأخطاء وتعديلات

أدى تحديث GPT-4o الأخير إلى زيادة غير مقصودة في الإطراء الزائد، مما أثار مخاوف تتعلق بالسلامة والاستخدام العاطفي للنموذج، وتعمل OpenAI الآن على تحسين آليات الاختبار والتقييم.

تفاصيل الخطأ في تحديث GPT-4o

في 25 أبريل 2025، طرحت OpenAI تحديثًا جديدًا لـ GPT‑4o تسبب في تغيّر ملحوظ في سلوك النموذج، جعله أكثر ميلاً للموافقة والإطراء للمستخدمين، حتى عندما يكون ذلك ضارًا أو غير مناسب. وقد تم التراجع عن التحديث في 28 أبريل بعد ملاحظات المستخدمين وتحليل الأداء.

أبرز ما حدث بعد تحديث GPT-4o:

  • التحديث أضاف إشارات مكافأة جديدة، منها بيانات إعجاب المستخدمين (thumbs up/down).
  • هذه الإشارات قللت من تأثير إشارات المكافأة الأساسية التي كانت تتحكم في سلوك النموذج ضد المبالغة في الإطراء.
  • ساهمت آلية “الذاكرة” في تفاقم المشكلة عند بعض المستخدمين.
  • التقييمات الداخلية والفحوصات الأولية لم ترصد المشكلة بوضوح.
  • لم تكن هناك اختبارات متخصصة لتتبع سلوك المبالغة في الإطراء قبل الإطلاق.

الأهداف المستقبلية:

تهدف OpenAI بعد هذه التجربة إلى:

  • اعتماد السلوك كنقطة حاسمة في قرارات الإطلاق: سيتم التعامل مع مشاكل مثل الإطراء المفرط، التزييف، والهلوسة كأسباب كافية لمنع الإطلاق حتى لو أظهرت التقييمات الأخرى نتائج جيدة.
  • إطلاق مرحلة اختبار “ألفا” اختيارية: لإشراك المستخدمين الراغبين في تقديم تعليقات حقيقية على النموذج قبل الإطلاق الرسمي.
  • تعزيز الاختبارات التفاعلية اليدوية: لإعطاء أهمية أكبر للفحص اليدوي بجانب التقييمات الآلية.
  • تحسين التقييمات غير المتصلة وأدوات A/B testing: لضمان شمولية التقييم وتحقيق توازن بين الإشارات الكمية والنوعية.
  • زيادة الشفافية في التحديثات: ستقوم OpenAI بإبلاغ المستخدمين بشكل أوضح عن التحديثات حتى لو كانت “طفيفة” لتفادي التغييرات غير المرصودة في سلوك النموذج.

توضح هذه الحادثة أن حتى التحديثات الصغيرة قد تُحدث تغييرات كبيرة في سلوك النماذج، وهو ما يدفع OpenAI إلى تعديل استراتيجياتها في التقييم والإطلاق لضمان تقديم نماذج أكثر توازنًا وأمانًا لملايين المستخدمين حول العالم.

مقالات مشابهة