تطرح التجربة الفكريّة القديمة "سفينة ثيسيوس" سؤالًا فلسفيًّا عميقًا: إذا تمّ استبدال ألواح السفينة الخشبيّة، واحدةً تلو الأخرى، فهل تبقى السفينة نفسها؟ وإذا أعدنا تجميع الألواح الأصليّة في مكانٍ آخر، فأيّ واحدةٍ منهما هي السفينة الأصليّة؟ يتحدّى هذا المفهوم فهمنا للهويّة والأصالة والاستمراريّة، وهي قضايا تتردّد أصداؤها بشكلٍ كبيرٍ في عصر الذكاء الاصطناعيّ اليوم.
في مجال التعليم، يثير صعود الذكاء الاصطناعيّ أسئلةً مماثلةً حول الأصالة والطبيعة المتغيّرة للحقيقة. أدواتٌ مثل ChatGPT التي تمكنها كتابة المقالات، وحلّ المشكلات، وحتّى إعداد خطط الدروس، لديها القدرة على إعادة تعريف العمليّات التقليديّة للتعليم والتعلّم. لكن، مع هذه القوّة تأتي تحدّياتٌ كبيرةٌ: كيف يمكننا التعامل مع الخطّ الفاصل بين الإبداع البشريّ، والناتج الذي يتمّ إنشاؤه بواسطة الآلة؟ وعند أيّ نقطةٍ يؤدّي الاعتماد على الذكاء الاصطناعيّ إلى تغييرٍ جوهريٍّ في طبيعة التعليم نفسه؟ وكيف نضمن أن تبقى القيم الأساسيّة للتعلّم ثابتةً في ظلّ هذه الابتكارات؟
هذه الأسئلة ليست نظريّةً، فالمدارس والمعلّمون يواجهون واقع استخدام الذكاء الاصطناعيّ في الفصول الدراسيّة كلّ يوم. من الأدوات التي تبسّط المهام الإداريّة، إلى المنصّات الذكيّة التي تساعد الطلّاب في واجباتهم، الإمكانيّات هائلةٌ، والتحدّيات أيضًا: فكيف نمنع إساءة الاستخدام، مثل الغشّ أو الاعتماد المفرط على الذكاء الاصطناعيّ؟ كيف يمكن للمعلّمين تحديد ما تعلّمه الطلّاب فعليًّا، مقابل ما قامت به الأداة؟ وكيف يمكننا تعليم الطلّاب تقييم دقّة المعلومات التي يتمّ إنشاؤها بواسطة الذكاء الاصطناعيّ، والأبعاد الأخلاقيّة المرافقة لهذه العمليّة؟
دور الذكاء الاصطناعيّ في إعادة تعريف التعليم
بدأ الذكاء الاصطناعيّ يشقّ طريقه ليصبح جزءًا أساسيًّا في التعليم، إذ يعيد تشكيل الطريقة التي يتعلّم بها الطلّاب، والطريقة التي يدرّس بها المعلّمون، والطريقة التي تعمل بها المدارس. في الفصول الدراسيّة، تقدّم الأدوات التي تعتمد على الذكاء الاصطناعيّ، مثل ChatGPT والمنصّات التعليميّة التكيّفيّة، تجارب تعلّمٍ شخصيّةً، ما يسمح للطلّاب بالتقدّم وفقًا لوتيرتهم الخاصّة، مع تلبية احتياجاتهم الفرديّة.
بالنسبة إلى المعلّمين، تتجاوز فوائد الذكاء الاصطناعيّ حدود التدريس. تشير دراسة أعدّتها شركة ماكنزي وكومباني، إلى أنّ ما يقرب من 50٪ من وقت المعلّم يُستهلك في المهام الإداريّة، مثل إعداد خطط الدروس، وتصميم الأنشطة، وتصحيح الواجبات. يمكن للذكاء الاصطناعيّ تقليل هذا العبء بشكلٍ كبيرٍ، من خلال أتمتة هذه المهام. على سبيل المثال، يستطيع ChatGPT إعداد خطط دروسٍ، وتصميم أنشطةٍ مخصّصةٍ بناءً على مستويات الطلّاب المختلفة، وحتّى تقديم ملاحظاتٍ فوريّةٍ على كتاباتهم. يتيح ذلك للمعلّمين التركيز على الجوانب الإنسانيّة للتعليم، مثل تعزيز التفكير النقديّ والإبداع والذكاء العاطفيّ بين الطلّاب.
التحدّيات والأبعاد الأخلاقيّة
لا يخلو دمج الذكاء الاصطناعيّ في التعليم من تحدّياتٍ، أبرزها خطر الاعتماد المفرط على الذكاء الاصطناعيّ، سواء من قبل المعلّمين أو الطلّاب. بحسب هاملتون وآخرون (Hamilton et al., 2023)، بينما يمكن للخبراء، مثل المعلّمين، استخدام الذكاء الاصطناعيّ لتحسين أدائهم بالتحقّق من دقّة مخرجاته، قد يواجه المستخدمون المبتدئون، مثل الطلّاب، صعوبةً في تمييز موثوقيّة المحتوى وصحّته، ما قد يؤدّي إلى اعتماد معلوماتٍ مضلّلةٍ، أو محتوًى غير صحيح.
علاوةً على ذلك، هناك معضلةٌ أخلاقيّةٌ تتعلّق بكيفيّة تحقيق التوازن بين فائدة الذكاء الاصطناعيّ، وإمكانيّة إساءة استخدامه. على سبيل المثال، قد يستخدم بعض الطلّاب الأدوات الذكيّة لإكمال المهام بشكلٍ غير نزيهٍ، متجاوزين عمليّة التعلّم. ومع ذلك، من المهمّ أن ندرك أنّ مثل هذا السلوك يعكس القيم الفرديّة للطالب، أكثر من كونه مشكلةً تتعلّق بالأداة نفسها؛ فالغشّ موجودٌ قبل الذكاء الاصطناعيّ، وسيظلّ موجودًا، لذلك يتطلّب الأمر تركيزًا كبيرًا من المعلّمين والمدرسة، لتعزيز النزاهة الأكاديميّة والمسؤوليّة الأخلاقيّة.
دور المعلّمين وإدارة المدارس
لمواجهة هذه التحدّيات، يصبح دور المعلّمين وإدارة المدارس أمرًا حاسمًا. يجب أن يتمتّع المعلّمون بفهمٍ عميقٍ للذكاء الاصطناعيّ – قدراته وحدوده وأبعاده الأخلاقيّة – حتّى يتمكّنوا من توجيه طلّابهم في استخدامه بمسؤوليّة. لا يتطلّب ذلك تعلّم كيفيّة استخدام الأدوات فحسب، ولكن دمجها بعنايةٍ في خطط الدروس والتقييمات، لتعزيز التعليم بدلًا من استبداله.
تتحمّل إدارة المدرسة مسؤوليّة توفير البنية التحتيّة والدعم اللازمَين، لتحقيق التكامل الفعّال للذكاء الاصطناعيّ. لذلك يجب وضع سياساتٍ وإرشاداتٍ واضحةٍ لضمان الاستخدام الأخلاقيّ، وحماية خصوصيّة البيانات. يمكن أن تساعد ورش العمل والمنتديات التعاونيّة المعلّمين على تبادل أفضل الممارسات، ومعالجة التحدّيات المشتركة.
استجاباتٌ عمليّةٌ لتحدّيات الذكاء الاصطناعيّ في التعليم
سأحاول في هذا القسم تسليط الضوء على بعض الحلول، للإجابة عن الأسئلة المطروحة أعلاه. يمكن اعتبار هذه الحلول بمثابة نصائح عمليّةٍ للمعلّمين، لمواجهة التحدّيات المتعلّقة باستخدام الذكاء الاصطناعيّ في التعليم.
التعامل مع سوء الاستخدام والكشف عن المحتوى الناتج عن الذكاء الاصطناعيّ
على الرغم من وجود أدواتٍ مثل Turnitin وGPTZero للكشف عن النصوص المنتجة بواسطة الذكاء الاصطناعيّ، إلّا أنّ هذه الأدوات ليست فعّالةً دائمًا، لذلك لا يمكن الاعتماد عليها بشكلٍ كلّيّ. ومع هذا، فإنّ المعلّمين غالبًا ما يكونون على درايةٍ بأسلوب طلّابهم في الكتابة ومستواهم الأكاديميّ، فإذا ظهرت فجأةً فروقٌ كبيرةٌ في مستوى الكتابة، تمكنهم بسهولةٍ ملاحظة هذا التغيّر. كما أنّ المحتوى الناتج عن الذكاء الاصطناعيّ عادةً ما يكون ذا نمطٍ مميّزٍ، مثل تكراره للكلمات والجمل، أو ظهور محتوًى صارمٍ وغير مرنٍ، وقد يحتوي على أخطاء واضحةٍ في الحقائق. مثل هذه الملاحظات قد تساعد المعلّم في التحقّق من عمل طلّابه.
إعادة تصميم التقييمات والمحتوى لضمان التعلّم الفعليّ، بدلًا من الاعتماد على مخرجات الذكاء الاصطناعيّ
بدلًا من التركيز فقط على اكتشاف المحتوى الناتج عن الذكاء الاصطناعيّ، يمكن للمعلّمين البدء في إعادة تصميم تقييماتهم بطرقٍ تجعل الغشّ باستخدام الذكاء الاصطناعيّ غير مُجدٍ، مثل اعتماد الأساليب التالية:
- التقديم الشفهيّ: يمكن للمعلّمين مطالبة الطلّاب بتقديم عملهم أمام زملائهم، مع فتح الباب للأسئلة. هذا النهج يساعد في تقييم فهم الطلّاب الحقيقيّ للموضوع.
- مقارنة المخرجات: يطلب المعلّمون من الطلّاب مقارنة المخرجات باستخدام الذكاء الاصطناعيّ لمراجعة عملهم، وتقديم النسختين معًا (عملهم الأصليّ ونسخة الذكاء الاصطناعيّ)، ما يشجّعهم على استخدام الأداة وسيلةً لتحسين عملهم، وليس استبداله.
- يمكن للمعلّمين مطالبة الطلّاب بذكر النصوص والأوامر (prompts) التي استخدموها للحصول على المخرجات من الذكاء الاصطناعيّ.
- إحدى الطرق البسيطة والفعّالة هي أن ينبّه المعلّم طلّابه إلى أنّه في حال استخدامهم الذكاء الاصطناعيّ من دون الإشارة إلى ذلك، سيطلب من الأداة نفسها مراجعة عملهم بدلًا منه. هذه الطريقة تجعل الطلّاب يتوقّفون للتفكير قبل اللجوء إلى الأداة.
- اعتماد التقييمات على عمليّة التعلّم، وليس على المنتج النهائيّ فقط. على سبيل المثال، يطلب المعلّم من الطلّاب تقديم مسوّداتٍ متعدّدةٍ توضّح طريقة التفكير، والخطوات التي اتّبعوها في العمل، أو تصميم أنشطةٍ تعتمد على التعاون والعمل الجماعيّ، مثل مناقشة الحلول مع الأقران، أو تقديم العمل في شكل حوارٍ أو مناظرة.
يجب ألّا ننسى أهمّيّة تعليم الطلّاب كيفيّة التحقّق من دقّة المعلومات الناتجة عن هذه الأدوات، بمقارنة المحتوى مع مصادر موثوقةٍ، وتحليل الفروقات. يمكن للمعلّمين تشجيع التساؤلات النقديّة، مثل: ما مصدر هذه الإجابة؟ وما الأسس التي بُنيت عليها؟ وهل تقوم على التحيّز؟ هل هويّتك باعتبارك صانع العمل ما تزال واضحةً ومميّزة؟
النظرة المستقبليّة: نهجٌ متوازن
يشبه ظهور الذكاء الاصطناعيّ في التعليم التحوّلات التكنولوجيّة السابقة، مثل الآلات الحاسبة والإنترنت. كلٌّ منها قوبل في البداية بالشكوك، لكنّه أصبح في نهاية المطاف أداةً لا غنًى عنها. لا يختلف الذكاء الاصطناعيّ عمّا سبقه من الأدوات، لكنّ المفتاح يكمن في تبنّي نهجٍ متوازنٍ في استخدامه، أي الاستفادة من إمكانيّاته في تقليل العبء وتعزيز نتائج التعلّم، مع ضمان بقاء الجوانب الإنسانيّة للتعليم – مثل التعاطف والتفكير النقديّ – في المقدّمة.
يمثّل الذكاء الاصطناعيّ فرصةً غير مسبوقةٍ للتعليم. فبدلًا من مقاومة وجوده، يجب أن يُنظر إليه كشريكٍ في عمليّة التعلّم، وبفهم قوّته وحدوده، وتوجيه الطلّاب في استخدامه بمسؤوليّةٍ، يمكننا التأكّد من أن يخدم الذكاء الاصطناعيّ باعتباره أداة تمكينٍ، بدلًا من كونه أداة اتّكاليّة. هكذا نعدّ طلّابنا للفصول الدراسيّة من جهةٍ، ولعالمٍ قادمٍ يتعايش فيه الذكاء الاصطناعيّ والبشريّة من أجل التقدّم والابتكار.
***
كتبت هذا المقال باللغة الإنجليزيّة، ثمّ ترجمته إلى اللغة العربيّة باستخدام أداة ذكاءٍ اصطناعيّ. ما رأيكم فيه؟ هل أعجبكم؟ هل تغيّرت وجهة نظركم عندما علمتم أنّه مترجمٌ بواسطة أداة ذكاءٍ اصطناعيّ؟
أنا من كتب المقال، لكنّني استخدمت أداة الذكاء الاصطناعيّ لترجمته، لأنّني لا أجيد الكتابة باللغة العربيّة بشكلٍ جيّد. بالنسبة إليّ، شعرت أنّ الذكاء الاصطناعيّ ساعدني في إيصال أفكاري إلى جمهورٍ أوسع، وهو أمرٌ ربّما لم أكن لأحقّقه من دون هذه الأداة.
ولكن يبقى السؤال مفتوحًا: هل يمكنكم اعتبار هذا المقال "خاصّتي بالكامل"؟ أم أنّ استخدام أداة ذكاءٍ اصطناعيٍّ لترجمته يجعل منه شيئًا مختلفًا؟
شاركوني آراءكم.
المراجع
- McKinsey & Company. (n.d.). How artificial intelligence will impact K-12 teachers.
- Hamilton, A., Wiliam, D., & Hattie, J. (2023). The future of AI in education: 13 things we can do to minimize the damage. University of Melbourne.