دراسة حديثة: وكلاء LLMs يطورون قواعد اجتماعية دون تدخل بشري
في دراسة نُشرت في Science Advances، كشف فريق بحثي من جامعة City St George’s بلندن وجامعة Copenhagen لتكنولوجيا المعلومات عن ظاهرة جماعية جديدة بين وكلاء النماذج اللغوية الكبيرة (LLMs).

سؤال محوري تطرحه الدراسة
هل تستطيع أنظمة LLMs التنسيق الذاتي وتكوين معايير اجتماعية دون قيادة مركزية؟
- تُبرز الدراسة هذه الإمكانية في سياق بعيد عن نموذج “الوكيل الفردي” المستخدم في كثير من الأبحاث السابقة.
- تعتمد على تجريب سلوك جماعي شبيه بما يحدث في المجتمعات البشرية.
منهجية البحث
اعتمد الباحثون على تصميم تجريبي يُحاكي “لعبة التسمية” لدراسة تفاعل الوكلاء:
- تم استخدام نماذج LLMs مثل Llama-2-70B-Chat وClaude-3.5-Sonnet.
- شارك في التجارب مجموعات مكونة من 24 إلى 200 وكيل ذكي.
- في كل جولة، يُطلب من وكيلين اختيار “اسم” من قائمة، ويُمنحان مكافأة في حال التطابق.
- في حال عدم التطابق، يُعرض لكل وكيل اسم شريكه، مما يسمح بتعلم تراكمي محدود الذاكرة.
النتائج الرئيسية
أظهرت التجارب ظهور سلوكيات جماعية متقدمة لدى LLMs:
- تشكُّل قاعدة اجتماعية مشتركة: رغم غياب التنسيق المركزي، اتفقت المجموعات تدريجيًا على استخدام اسم واحد.
- نشوء تحيّزات جماعية: لم يكن أي وكيل منفردًا متحيزًا، لكن المجموعة ككل أظهرت ميلًا مشتركًا غير مبرمج مسبقًا.
- تأثير المجموعات الصغيرة: مجموعات صغيرة حافظت على خيار مخالف، وتمكنت من قلب إجماع المجموعة بالكامل بمرور الوقت.
المناقشة والآثار
تُسلّط الدراسة الضوء على أبعاد جديدة في تقييم ومحاذاة الذكاء الاصطناعي:
- تحدي تقييم السلوك الجماعي: فحص وكيل LLM بشكل منفصل لا يُعطي صورة كاملة عن سلوك النظام الجماعي.
- أهمية الأطر الجماعية: يجب أن تُدرج تفاعلات الوكلاء ضمن مناهج أمان الذكاء الاصطناعي الجماعي.
- تطبيقات مستقبلية: يمكن استخدام هذه الديناميكيات في تصميم نظم ذكاء اصطناعي مرنة وقابلة للتكيف اجتماعياً، أو نمذجة تطوّر اللغة والمعايير الرقمية.
تشير نتائج الدراسة إلى أن وكلاء LLMs لا يتصرفون كمجرد تجميع لسلوك أفرادهم، بل يكوّنون تحيّزات ومعايير اجتماعية تتغير بفعل التفاعل الداخلي والتأثيرات الصغرى. هذا يفتح بابًا لمجالات بحث جديدة في محاذاة الأنظمة متعددة الوكلاء، ويستدعي مراجعة الأدوات الحالية لمراقبة الذكاء الاصطناعي الجماعي.