ChatGPT يستشهد بغروكيبديا ويثير مخاوف التضليل
أثار أحدث نموذج من ChatGPT جدلاً واسعاً بعد كشف تقارير صحفية عن استشهاده بموسوعة رقمية مثيرة للجدل مرتبطة بإيلون ماسك، ما أعاد تسليط الضوء على مخاطر تسرب المعلومات المضللة إلى نماذج الذكاء الاصطناعي.

تفاصيل الخبر
كشفت صحيفة الغارديان أن نموذج GPT-5.2 بدأ بالاستشهاد بموسوعة Grokipedia كمصدر للإجابة عن مجموعة واسعة من الأسئلة، وهو ما أثار قلق الباحثين في مجال المعلومات المضللة.
وبحسب اختبارات أجرتها الصحيفة، استشهد ChatGPT بالموسوعة تسع مرات عند الرد على أكثر من 12 سؤالاً مختلفاً، شملت موضوعات سياسية وتاريخية حساسة، من بينها قضايا متعلقة بإيران وسير ذاتية لشخصيات أكاديمية بارزة.
غروكيبديا هي موسوعة رقمية مولدة بالكامل بالذكاء الاصطناعي، أُطلقت في أكتوبر الماضي بهدف منافسة ويكيبيديا، لكنها واجهت انتقادات واسعة بسبب ترويجها روايات يمينية متطرفة حول قضايا خلافية مثل زواج المثليين وأحداث اقتحام الكونغرس الأميركي في 6 يناير.
أبرز النقاط المثيرة للقلق:
- استشهاد GPT-5.2 بغروكيبديا في أسئلة تتعلق بمواضيع حساسة.
- غياب التحرير البشري المباشر في الموسوعة.
- تولي نموذج ذكاء اصطناعي كتابة المحتوى وتحديثه.
- تمرير معلومات أكثر حدة من تلك الموجودة في ويكيبيديا.
- تكرار معلومات سبق أن دحضتها وسائل إعلام موثوقة.
- رصد إشارات غير رسمية إلى استشهاد نماذج أخرى مثل Claude بالموسوعة نفسها.
وأكدت OpenAI أن نظام البحث لديها بتطبيق ChatGPT يعتمد على مصادر عامة متنوعة، مع تطبيق فلاتر أمان لتقليل مخاطر المحتوى الضار، إلا أن خبراء يرون أن تسرب معلومات منخفضة الموثوقية قد يحدث بشكل غير مباشر عبر موضوعات أقل شهرة.
الأهداف المستقبلية
يسلط هذا الجدل الضوء على تحديات أوسع تواجه شركات الذكاء الاصطناعي، ومن أبرز القضايا المطروحة:
- تعزيز آليات التحقق من موثوقية المصادر.
- الحد من ظاهرة “تغذية النماذج” بالمعلومات المضللة.
- زيادة الشفافية حول كيفية اختيار المصادر.
- منع تضخيم مصداقية منصات مثيرة للجدل عبر الاستشهاد بها.
- تطوير أدوات أسرع لتصحيح الأخطاء بعد انتشارها داخل النماذج.
ويرى باحثون أن إزالة المعلومات الخاطئة من نماذج الذكاء الاصطناعي بعد انتشارها تمثل تحدياً كبيراً، وقد تستمر آثارها حتى بعد تصحيح المصدر الأصلي.
تكشف قضية غروكيبديا عن جانب حساس في مستقبل الذكاء الاصطناعي، حيث لا تكمن الخطورة فقط في إنتاج المعلومات، بل في المصادر التي تُغذّي هذه النماذج، وما يترتب على ذلك من تأثير واسع على وعي المستخدمين.
