النزاهة الأكاديمية 2.0
كيف يمكن للذكاء الاصطناعي أن يعزز النزاهة الأكاديمية بدلاً من تقويضها
الدكتورة فيليبا هاردمان 7 ديسمبر 2023
غالبًا ما يعود الجدل الدائر حول الذكاء الاصطناعي في التعليم إلى المخاوف المتعلقة بالنزاهة الأكاديمية. إذا كانت أدوات مثل ChatGPT يمكنها كتابة مقال أفضل من الطالب العادي، فكيف يمكن أن يتعامل المعلمون والمؤسسات التعليمية مع ذلك وماذا سيصبح مفهوم النزاهة الأكاديمية؟
النزاهة الأكاديمية: "توقع أن يتصرف المعلمون والطلاب والباحثون وجميع أعضاء المجتمع الأكاديمي بأمانة وثقة وإنصاف واحترام ومسؤولية." |
لقد ناقشت هذا السؤال كثيرًا مع زملائي في الجامعات حول العالم في الأشهر القليلة الماضية. في كل مرة، تبرز وجهة نظر شائكة - وهي تسير على النحو التالي:
- يُنظر إلى الذكاء الاصطناعي في التعليم في المقام الأول على أنه تهديد وجودي للنزاهة الأكاديمية. إذا تمكن الذكاء الاصطناعي من كتابة مقال أفضل من الطالب العادي، فإننا محكوم علينا بالفشل.
- استجابت العديد من المؤسسات من خلال زيادة مستويات مراقبة الطلاب: فكر في كتابة المقالات شخصيًا و/أو مراقبة الطلاب على نطاق واسع من خلال استخدام تقنيات اكتشاف الذكاء الاصطناعي مثل GPTZero وTurnitIn.
- ولكن من خلال زيادة المراقبة والاستثمار في تقنيات الكشف عن الذكاء الاصطناعي التي أثبتت أنها غير فعالة، فإننا نعمل دون أن نحس على تآكل وتقويض الثقة والنزاهة الأكاديمية ــ بدلا من بناء وتعزيزها.
إذن، ما هو البديل؟
الذكاء الاصطناعي: أداة للنزاهة الأكاديمية؟
إذا تبنينا استخدام الذكاء الاصطناعي في التعليم بدلاً من مراقبته، فهل يمكننا تعزيز (بدلاً من تآكل) النزاهة الأكاديمية؟ أعتقد أن الجواب هو نعم.
هنا بضعة أمثلة:
ماذا لو…. تحول تركيز التعليم من استدعاء المعرفة إلى تنمية التفكير النقدي والمهارات التحليلية وقدرات حل المشكلات؟
في هذا السيناريو، يصبح الذكاء الاصطناعي أداة يتم استخدامها بنفس الطريقة تمامًا مثل الكتب المدرسية أو الأوراق البحثية: يستخدمها الطلاب لجمع المعلومات وإلهام الإبداع وتنظيم الأفكار. ويتحول دور المعلمين إلى دعم الطلاب وتقييم قدرتهم على تفسير ونقد وتطبيق المعرفة المكتسبة، بدلاً من مجرد حفظ الحقائق وتكرارها.
ماذا لو …. بدلاً من الاختبارات التقليدية التي غالبًا ما تشجع التعلم من خلال الحفظ، توجهنا نحو التقييمات المستمرة القائمة على المشاريع؟
في هذا السيناريو، ستقوم التقييمات السلوكية المستمرة بتقييم قدرة الطالب على البحث وتوليف المعلومات وتقديم الحجج المنطقية. لا يوفر هذا النهج رؤية أكثر شمولاً وشمولية لمهارات الطالب ومعارفه فحسب، بل يمكن القول أيضًا أنه يتوافق بشكل أكبر مع تحديات العالم الحقيقي التي سيوجهونها في العالم الحقيقي.
السؤال الذي أود أن نطرحه جميعًا هو: هل يمثل دمج الذكاء الاصطناعي في التعليم أزمة للنزاهة الأكاديمية، أم فرصة لتعزيزها؟
من خلال المطالبة بالتحول من أساليب التدريس والتعلم والتقييم التقليدية التي تركز على الحفظ إلى نموذج يركز على التفكير النقدي والمهارات التحليلية وحل المشكلات، يمثل الذكاء الاصطناعي تحديًا مباشرًا للنزاهة الأكاديمية كما نعرفها، ولكنه أيضًا فرصة لا فقط لزيادة النزاهة الأكاديمية ولكن أيضًا لتحسين نتائج الطلاب.
ومن ذلك على سبيل المثال:
- تعزيز الاستخدام الصادق والمسؤول للمعلومات: من خلال استخدام الذكاء الاصطناعي كمورد آخر، على غرار الكتب المدرسية أو الأوراق البحثية، يتم تشجيع الطلاب على التعامل مع المعلومات بأمانة ومسؤولية. يمكن أن يساعد الذكاء الاصطناعي في جمع المعلومات وتنظيم الأفكار، ولكن التركيز ينصب على قدرة الطالب على تفسير هذه المعلومات وتحليلها وتطبيقها بشكل نقدي. وهذا يعزز بيئة يتعلم فيها الطلاب استخدام الذكاء الاصطناعي بشكل أخلاقي، مما يعزز قيم الصدق والمسؤولية.
- بناء الثقة من خلال أساليب التقييم الشامل: يساعد التحول من الاختبارات التقليدية إلى التقييمات المستمرة القائمة على المشاريع على إنشاء نظام تقييم أكثر شمولاً وعدالة. ويدعم هذا النهج أساليب وخلفيات التعلم المتنوعة، وبالتالي الحفاظ على العدالة والمساواة في العملية التعليمية. ومن خلال الابتعاد عن الامتحانات ذات الضغط العالي والمقاس الواحد الذي يناسب الجميع، يُظهر المعلمون الثقة في قدرات طلابهم على إظهار المعرفة والمهارات بطرق مختلفة، مما يعزز مبدأ الثقة.
- تعزيز المسؤولية في التعلم: إن تشجيع استخدام الذكاء الاصطناعي في التعليم، بدلاً من قمعه، يغرس الشعور بالمسؤولية لدى الطلاب لاستخدام التقنية بشكل أخلاقي وفعال. إنه يعدهم لمستقبل حيث يكون الذكاء الاصطناعي جزءًا لا يتجزأ من المشهد المهني، ويعلمهم أن يكونوا مستخدمين مسؤولين ومبدعين للمحتوى الذي ينشئه الذكاء الاصطناعي.
تأملات ختامية
بدلاً من الافتراض بأن استخدام الذكاء الاصطناعي يشكل سرقة أدبية وزيادة مراقبة الطلاب، يجب أن نجري نقاشا مفتوحا وصادقا حول التأثير الحقيقي للذكاء الاصطناعي على النزاهة الأكاديمية.
كمعلمين ومؤسسات أكاديمية، هل سنختار حماية النزاهة الأكاديمية كما نعرفها ونضع الذكاء الاصطناعي كتهديد وجودي لها؟
أم أننا سنتحول إلى فترة "ما بعد الانتحال" ونتبنى الذكاء الاصطناعي كفرصة غير مسبوقة لتعميق التزامنا بالصدق والثقة والإنصاف والاحترام والمسؤولية؟
فقط الوقت كفيل بإثبات.
الكاتبة: الدكتورة فيليبا هاردمان هي باحثة منتسبة في جامعة كامبريدج، وعالمة في مجال التعليم ومبتكرة DOMS™️ - وهي عملية تصميم تعليمية رائدة قائمة على الأدلة.
إنها رائدة فكرية في تصميم التعليم ولديها وأمضت ما يزيد على 20 عامًا في البحث في مجال تعلم العلوم وتصميم تجارب التعلم الفعلية وعبر الإنترنت والهجينة. صممت بعضًا من تجارب التعلم الأكثر تأثيرًا في العالم، بما في ذلك أول وأنجح MOOC في جامعة أكسفورد. كما أنها قادت بنجاح أكبر مشروع تصميم تعليمي في التاريخ عندما كانت نائبة رئيس قسم التعلم في شركة تقنيات التعليم الناشئة Aula. مؤخرا، بدأت د. فيل في الاهتمام بدور الذكاء الاصطناعي في تصميم التعلم وتقديمه، وألقت مؤخرًا محاضرة TEDX حول الذكاء الاصطناعي والتعليم.