الذكاء الاصطناعي قد يضعف التفكير النقدي لطلاب الطب إن لم يُستخدم بحكمة
حذر خبراء طبيون من أن استخدام الذكاء الاصطناعي دون توجيه مناسب في كليات الطب قد يقلل من قدرات التفكير النقدي لدى الطلاب ويزيد اعتمادهم على التقنية بشكل مفرط.

تحديات استخدام الذكاء الاصطناعي في التعليم الطبي
يشير الخبراء إلى عدة مخاطر مرتبطة باستخدام AI في التعليم الطبي:
- غياب السياسات الواضحة في معظم المؤسسات التعليمية حول كيفية استخدام AI في الواجبات والتدريب.
- الاعتماد المفرط على التقنية، ما قد يؤدي إلى فقدان المهارات الأساسية للطلاب في التشخيص والتفكير المستقل.
- خطر الانقطاع التقني: ماذا يحدث إذا توقفت خوادم AI أو الخدمات المستخدمة؟ الطلاب الذين يعتمدون على AI في التدريب قد يُحرمون من فرصة تطوير مهاراتهم.
- توليد معلومات خاطئة: النماذج اللغوية الكبيرة غالبًا ما تنتج بيانات غير دقيقة أو مصادر مختلقة، وهو ما قد يكون خطيرًا في البيئة السريرية.
أهداف التعليم الطبي المستقبلية مع AI
لتجنب هذه المخاطر، يقترح الخبراء مجموعة من الأهداف:
- تعليم الطلاب الاستخدام الصحيح لـ AI مع التأكد من القدرة على التحقق من نتائجها.
- تدريب على رفض النصائح الخاطئة وشرح أسباب عدم اتباعها عند الحاجة.
- تقييم الطلاب في بيئة خالية من AI لضمان صقل المهارات الأساسية مثل التواصل، الفحص البدني، والعمل الجماعي.
- إدراج معرفة الذكاء الاصطناعي ضمن المناهج، بما يشمل فهم المبادئ الأساسية لعمل النماذج وتقنيات التدريب والقيود المحتملة.
- متابعة عملية استخدام AI من خلال طلب تقديم سجل العمل، البرومبتات المستخدمة، والتبريرات المكتوبة لقبول أو رفض مخرجات AI.
يشدد الخبراء على أن الذكاء الاصطناعي أداة داعمة يجب دمجها بحذر في التعليم الطبي، لضمان تطوير المهارات الأساسية للطلاب والحفاظ على التفكير النقدي المستقل.
