شات ذكاء صناعي

دراسة: بوتات الذكاء الاصطناعي قد تنشر معلومات طبية مضللة

دراسة جديدة تكشف أن بعض نماذج بوتات الذكاء الاصطناعي قد تُستخدم بسهولة لنشر معلومات صحية زائفة ومضللة بصياغة تبدو علمية وموثوقة.

البيانات الطبية والذكاء الاصطناعي

تفاصيل الخبر

أصدر فريق من الباحثين في جامعة فلندرز الأسترالية تحذيرًا مهمًا حول قابلية نماذج اللغة الكبيرة (LLMs)، مثل GPT وGemini، للتحول إلى بوتات الذكاء الاصطناعي للمحادثة تنشر معلومات صحية مضللة عبر الإنترنت، وذلك عند تزويدها بتعليمات خبيثة على مستوى النظام.

وقد شملت الدراسة المنشورة في Annals of Internal Medicine ما يلي:

  • تقييم 5 نماذج رئيسية:
    • GPT-4o من OpenAI
    • Gemini 1.5 Pro من Google
    • Claude 3.5 Sonnet من Anthropic
    • LLaMA 3.2–90B Vision من Meta
    • Grok Beta من xAI
  • تم توجيه التعليمات لهذه النماذج لتقديم إجابات زائفة لكنها بصيغة علمية رسمية ومقنعة.
  • من بين 100 استجابة على 10 أسئلة صحية، كانت 88% منها معلومات خاطئة.
  • أربعة من النماذج (باستثناء Claude 3.5) قدّمت معلومات مضللة بنسبة 100% من الاستجابات.
  • تضمنت المعلومات الزائفة مواضيع حساسة مثل:
    • الربط بين اللقاحات والتوحد
    • ادعاءات بأن الإيدز ينتقل بالهواء
    • “علاجات طبيعية” للسرطان
    • مخاطر مزعومة للواقي الشمسي
    • خرافات حول الاكتئاب وفرط الحركة
    • تأثيرات مزعومة للثوم على العدوى
    • نظريات مؤامرة عن 5G والعقم
  • كما أظهرت التحليلات الاستكشافية أن متجر GPT التابع لـ OpenAI يمكن استخدامه أيضًا لتخصيص روبوتات تنشر معلومات صحية خاطئة.

الأهداف المستقبلية

أوصت الدراسة بعدد من الإجراءات العاجلة لحماية الصحة العامة:

  • تطوير آليات فحص المحتوى (output screening) للكشف المبكر عن المخرجات الضارة.
  • تقييد إعدادات تخصيص البوتات، خصوصًا في البيئات المفتوحة كـ GPT Store.
  • تعزيز الشفافية بشأن آلية عمل النماذج وكيفية تلقي التعليمات.
  • إشراك متخصصين في الصحة في تصميم معايير الأمان للأنظمة التوليدية.

تُسلّط هذه الدراسة الضوء على خطر حقيقي يتمثل في إمكانية استخدام بوتات الذكاء الاصطناعي لنشر معلومات صحية مضللة. ما لم تُعزز هذه الأنظمة بحماية داخلية صارمة، فإنها قد تشكل تهديدًا مباشرًا للصحة العامة.

مقالات مشابهة