Deloitte تخطئ في تقرير كندي بمراجع وهمية من الذكاء الاصطناعي

وقعت Deloitte مجدداً في خطأ فادح بعد أن أعدّت تقريرًا لحكومة كندا تبيّن أنه يحتوي مراجع وأبحاث أكاديمية وهمية، مما يثير جدلاً حول الاعتماد على أدوات الذكاء الاصطناعي في التقارير الرسمية.

كتابة تقرير بالذكاء الاصطناعي

تفاصيل الخبر

التقرير الصحّي الذي أعدّته Deloitte لحكومة مقاطعة نيوفاوندلاند ولابرادور كان مفترضًا أن يقيّم واقع خدمات الرعاية الصحية، لكنه تضمن أخطاء جسيمة ناتجة — بحسب التحقيقات — عن استخدام أدوات ذكاء اصطناعي في إعداد مضمونه.

  • التقرير تكلّف نحو 1.6 مليون دولار كندي، وضمّ خلاصة 526 صفحة.
  • عُثر فيه على استشهادات لمقالات أكاديمية لا وجود لها في الواقع، وأوراق بحثية ذكرت أسماء باحثين لم يعملوا معًا.
  • بعض المؤسسات أو المستشفيات ذُكرت بشكل خاطئ، أو وُصف عملها بطريقة غير دقيقة، الأمر الذي يضعصدقيّة التقرير التشغيلي والسياسي موضع شك.
  • هذه ليست الواقعة الأولى: في أكتوبر 2025، اضطرت Deloitte لتعويض حكومة أستراليا بعد تقرير مشابه شابه “هلوسة” AI واستشهد بأبحاث وهمية.
  • الاعتماد على AI بدون تدقيق بشري صار يعرض سمعة المؤسسات الاستشارية للخطر، خصوصًا عند التعامل مع ملفات حساسة مثل الصحة العامة.

الأهداف المستقبلية

الحادثة ربما تدفع إلى إعادة النظر في كيف تُستخدم أدوات الذكاء الاصطناعي داخل الأبحاث والتقارير الرسمية، مع تطوير آليات ضمان الجودة والمصداقية.

  • تعزيز ضوابط التدقيق والتحقق اليدوي لكل استشهاد أو مرجع يستخدم في التقرير.
  • تحديد إرشادات صارمة لاستخدام الذكاء الاصطناعي في التقارير الحكومية الحساسة.
  • زيادة الشفافية في الإقرار بأي استخدام لأدوات AI عند إعداد التقارير والبحوث.
  • تشجيع توظيف باحثين حقيقيين ومراجعين مستقلين لتدقيق المحتوى الناتج عن AI.

توفر حادثة Deloitte درسًا مهمًا: الذكاء الاصطناعي أداة قوية، لكن بدون رقابة ودقة قد يقدّم نتائج مضلّلة، خصوصًا في التقارير التي تؤثر على سياسات عامة. إن لم تُراعَ معايير الصدق والدقة، قد تتحول هذه التكنولوجيا من مساعدة إلى مصدر لخطر.

مقالات مشابهة