Deloitte تُعيد جزءًا من 440 ألف دولار بعد تقرير مليء بأخطاء
أعلنت الحكومة الأسترالية أن شركة Deloitte ستُعيد جزءًا من مبلغ 440 ألف دولار أسترالي بعد أن تبيّن أن تقريرها حول الامتثال للرعاية الاجتماعية احتوى على أخطاء ومرجعيات وهمية يُعتقد أنها ناتجة عن الذكاء الاصطناعي.

تفاصيل الخبر
نشرت وزارة التوظيف والعلاقات العمالية الأسترالية التقرير في يوليو 2025، قبل أن تُصدر نسخة معدّلة في أكتوبر بعد اكتشاف عشرات المراجع الخاطئة والاقتباسات الملفقة، بما في ذلك اقتباس مزعوم من حكم محكمة اتحادية ومراجع لأبحاث أكاديمية غير موجودة.
الباحث كريس رادج من جامعة سيدني كان أول من نبه إلى الأخطاء، موضحًا أن التقرير كان “مليئًا بالمراجع المصطنعة”. بعد المراجعة، أكدت Deloitte وجود أخطاء في بعض الحواشي والمراجع ووافقت على إعادة الدفعة النهائية من العقد.
النسخة المنقحة من التقرير تضمنت إفصاحًا جديدًا بأن نظام Azure OpenAI استُخدم في كتابة التقرير. كما أُزيلت الاقتباسات الخاطئة والتقارير غير الموجودة.
أبرز النقاط:
- عدد الأخطاء المكتشفة: نحو 20 خطأ في النسخة الأولى.
- أخطر الأخطاء: اقتباس مزور من قاضٍ اتحادي، وكتاب وهمي منسوب لأستاذة في القانون العام.
- رد الحكومة: الحفاظ على مضمون التقرير دون تغيير التوصيات.
- رد Deloitte: “تم حل المسألة مباشرة مع العميل”.
من جهتها، صرّحت السيناتور باربرا بوكوك من حزب الخضر بأن Deloitte يجب أن تُعيد المبلغ كاملًا، معتبرة أن “سوء استخدام الذكاء الاصطناعي بهذا الشكل غير مقبول حتى من طالب جامعي في السنة الأولى”.
لماذا يهم الخبر؟
القضية تُبرز المخاطر القانونية والمهنية لاستخدام الذكاء الاصطناعي التوليدي في إعداد تقارير رسمية دون تحقق بشري صارم. كما تعيد طرح السؤال حول مسؤولية الشركات الكبرى عند الاعتماد على أدوات الذكاء الاصطناعي في الأعمال الحكومية.
تكشف هذه الحادثة عن الوجه الآخر لاستخدام الذكاء الاصطناعي في الأعمال الرسمية، حيث يمكن للأخطاء التوليدية أن تُقوّض الثقة وتُعرّض المؤسسات للمساءلة. ومع أن الذكاء الاصطناعي أصبح أداة قوية في تحليل البيانات وإعداد التقارير، إلا أن الاعتماد المفرط عليه دون رقابة بشرية يظل خطرًا كبيرًا.
