دراسة الذكاء الاصطناعي

اختبارات جديدة تكشف عن ذكاء استراتيجي لدى نماذج الذكاء الاصطناعي

كشفت دراسة حديثة عن قدرة نماذج اللغة الكبيرة (LLMs) من OpenAI وGoogle وAnthropic على تطوير استراتيجيات مميزة عند اختبارها في مواقف تتطلب تفكير ذكاء استراتيجي.

كيف أُجريت الدراسة؟

أراد الباحثون معرفة ما إذا كانت النماذج تفكر بشكل ذكاء استراتيجي أم مجرد تكرار لأنماط محفوظة، فاختبروا سلوكها في سيناريو شهير يُعرف بـ”معضلة السجين”:

  • أُجريت 140,000 مباراة من معضلة السجين، حيث تختار النماذج بين التعاون أو الخيانة لكسب النقاط بناءً على رد فعل الخصم.
  • قبل اتخاذ كل قرار، أنتجت النماذج مبررات كتابية، تُظهر تحليلها لاحتمالات إنهاء المباراة وسلوك الخصم المتوقع.
  • الهدف كان معرفة ما إذا كانت النماذج تحلل وتتكيف مع البيئة، أم تتبع نمطًا محددًا مسبقًا.

ماذا كشفت النتائج؟

أظهرت النماذج سلوك ذكاء استراتيجي واضح، لكن بأساليب مختلفة:

  • Gemini (Google): أظهر سلوكًا تكيفيًا “قاسيًا”، يغير استراتيجيته بسرعة للحصول على أفضل نتيجة.
  • OpenAI (مثل GPT): فضّلت التعاون حتى عند تعرّضها للاستغلال، مما يشير إلى توجه “أخلاقي” نسبيًا.
  • Claude (Anthropic): تميز بالتسامح، واستمر بالتعاون حتى بعد التعرض للخيانة.
  • استخدم الباحثون “بصمات استراتيجية” لرصد كيف تتغير ردود النماذج عند الخيانة أو النجاح، مما أعطى لمحة عن “شخصية” كل نموذج.

لماذا هذا مهم؟

تشير هذه النتائج إلى تطور حقيقي في القدرة على التفكير والتكيّف لدى نماذج الذكاء الاصطناعي:

  • النماذج لم تتصرف فقط بناءً على الأنماط النصية، بل حللت وقررت بشكل مختلف رغم تدريبها على نفس المحتوى.
  • قد يُترجم ذلك إلى نتائج متباينة في مهام حيوية مثل المفاوضات، تخصيص الموارد، واتخاذ القرارات الأخلاقية.
  • وجود “شخصيات” مختلفة بين النماذج قد يغيّر مستقبل استخدام الذكاء الاصطناعي في السياسة، الاقتصاد، والأمن.

مع تزايد استخدام LLMs في مهام معقدة، تكشف هذه الدراسة عن بُعد جديد في الذكاء الاصطناعي: الذكاء الاستراتيجي. اختيار النموذج المناسب قد لا يتعلق فقط بالدقة، بل بطبيعة “تفكيره” أيضًا.

مقالات مشابهة