صدر تقرير "ثورة الذكاء الاصطناعيّ في التعليم" عن البنك الدوليّ في حزيران/ يونيو سنة 2024، ضمن سلسلة تقارير "الابتكارات الرقميّة في التعليم". يسلّط التقرير الضوء على الدور المتنامي للذكاء الاصطناعيّ في تحسين التجربة التعليميّة على مختلف المستويات، ويناقش تطبيقات الذكاء الاصطناعيّ لدعم المعلّمين والطلّاب والإدارة التعليميّة. نستعرض ذلك تفصيلًا في ما يأتي:
تطبيقات الذكاء الاصطناعيّ لدعم المعلّمين
شهدت أدوات الذكاء الاصطناعيّ تطوّرًا لافتًا، وأصبحت أقدر على تقديم دعمٍ نوعيٍّ للمعلّمين في إنجاز مهامّهم المتعدّدة، ما أسهم في تخفيف أعبائهم اليوميّة، وفي تعزيز جودة التعليم. من هذه الأدوات:
مرشدون مدعومون بالذكاء الاصطناعيّ: تعتمد على روبوتات الدردشة الذكيّة، لتقديم التوجيه المهنيّ والشخصيّ للمعلّمين، ما يسهم في تحسين توظيفهم المعلومات، واستدامة تطوّرهم المهنيّ.
أنظمة التغذية الراجعة الذكيّة: تتيح تطبيقات الذكاء الاصطناعيّ الصوتيّة تحليلًا لخطاب الفصل الدراسيّ، إذ تقيس مستويات تفاعل الطلّاب، وتمنح المعلّمين تغذيةً راجعةً حول أساليبهم التعليميّة. تُمكّن هذه الأدوات المعلّمين من تطوير استراتيجيّات تدريسٍ مبنيّةٍ على بياناتٍ دقيقة.
مساعد تخطيط الدروس: يمكن لأدوات التخطيط الذكيّة أن تساعد المعلّمين في إنشاء خطط دروسٍ تفاعليّةٍ، ومتوافقةٍ مع المعايير التعليميّة، ما يمنح المعلّمين مزيدًا من الوقت للتركيز على العمليّة التعليميّة، بدل الانشغال بالمهام الإداريّة.
أتمتة المهام الروتينيّة: تسهم أنظمة الذكاء الاصطناعيّ في أتمتة الأعمال الإداريّة الروتينيّة، مثل التصنيف وحفظ السجلّات، ما يقلّل من أعباء المعلّمين الإداريّة، ويتيح لهم مزيدًا من الوقت للأنشطة التعليميّة والتفاعليّة.
أدوات التطوير المهنيّ: تقدّم دعمًا مستمرًّا للمعلّمين، إذ تعمل على أتمتة المهام الروتينيّة، وتقديم ملاحظاتٍ دقيقةٍ حول أداء الفصل الدراسيّ، ما يمنحهم فرصة التركيز على تقديم الدعم الفرديّ للطلّاب عند الحاجة.
تخصيص تجارب تعلّمٍ للطلّاب
يسهم الذكاء الاصطناعيّ في تصميم تجارب تعلّمٍ للطلّاب، تراعي احتياجاتهم الفرديّة وسرعتهم في التعلّم. تشمل هذه المزايا:
أنظمة التدريس المدعومة بالذكاء الاصطناعيّ: تستخدم المنصّات المدعومة بالذكاء الاصطناعيّ تقنيّات معالجة اللغة الطبيعيّة، لإشراك الطلّاب في حواراتٍ تفاعليّةٍ، وتوفير تعليماتٍ مخصّصةٍ وتغذيةٍ راجعةٍ في الوقت الفعليّ. كما يمكن لهذه الأنظمة تحليل أداء الطالب، وتكييف المحتوى ليناسب مستوى تعلّمه، وبالتالي تعزيز فهمه وقدرته على الاحتفاظ بالمعلومات.
مسارات التعلّم المخصّصة: يمكن لخوارزميّات الذكاء الاصطناعيّ تقييم بيانات الطلّاب الفرديّة، بما فيها الأداء السابق وأنماط التعلّم، لإنشاء مساراتٍ تعليميّةٍ مخصّصةٍ، تسمح للطلّاب التقدّم بالسرعة التي تناسبهم، مع التركيز على المجالات التي يحتاجون إلى تحسينها، وإمكانيّة تخطّي المحتوى الذي أتقنوه بالفعل.
التغذية الراجعة الفوريّة: تتيح أنظمة الذكاء الاصطناعيّ تغذيةً راجعةً فوريًّة حول المهام والتقييمات، ما يساعد الطلّاب في فهم أخطائهم، والتعلّم منها وتصحيحها على الفور. يعدّ هذا التدخّل أمرًا بالغ الأهمّيّة في تعزيز المفاهيم وتصحيح الأخطاء.
منصّات التعلّم التكيّفيّة: تتكيّف هذه المنصّات مع مستوى الطالب، إذ تضبط صعوبة المهام المقدّمة بناءً على أدائه المستمرّ. فإذا واجه الطالب صعوبةً في فهم مفهومٍ معيّنٍ، يمكن للذكاء الاصطناعيّ أن يقدّم له موارد إضافيّةً أو مهامًا أبسط، لبناء ثقته بنفسه قبل الوصول إلى موادّ أكثر تحدّيًا.
مهام الذكاء الاصطناعيّ التوليديّ: تدعم أدوات توليد المحتوى بناء الأفكار، وصياغة المقالات، وحلّ المشكلات، فتعزّز تجربة التعلّم، وتشجّع الطلّاب على التفكير، كما تشجّع المعلّمين على تصميم مهام تتطلّب التفكير النقديّ والرؤى الأصليّة.
رؤًى قائمةٌ على بيانات المعلّمين: يمكن لمنصّات الذكاء الاصطناعيّ تحليل تفاعلات الطلّاب وبيانات الأداء، وتزويد المعلّمين برؤًى حول احتياجات طلّابهم الفرديّة. يسمح هذا للمعلّمين تخصيص تعليماتهم ودعمهم، استجابةً لمتطلّبات طلّابهم المتنوّعة.
التعلّم التعاونيّ المدعوم بالذكاء الاصطناعيّ: تسهم أدوات الذكاء الاصطناعيّ في خلق بيئات تعلّمٍ تعاونيّةٍ، بجمع الطلّاب ذوي الاحتياجات وأساليب التعليم المتشابهة، ما يعزّز التعلّم والدعم بين الأقران.
تحدّيات دمج الذكاء الاصطناعيّ في التعليم
يواجه دمج الذكاء الاصطناعيّ في التعليم العديد من التحدّيات التي تحتاج إلى معالجةٍ، لضمان التنفيذ الفعّال والنتائج الإيجابيّة. في الآتي أهمّ التحدّيات التي يتناولها التقرير:
- الفجوة الرقميّة المستمرّة: يفتقر العديد من الطلّاب والمعلّمين في المجتمعات المحرومة إلى الاتّصال بالإنترنت عالي الجودة، والأجهزة والمهارات الرقميّة، ما يزيد من الفجوة في الفرص التعليميّة، ويعيق تبنّي الذكاء الاصطناعيّ بشكلٍ عادل.
- المخاوف بشأن الخصوصيّة والأمان: يثير استخدام الذكاء الاصطناعيّ قلقًا متزايدًا بشأن حماية البيانات. لذا، أصبح من الضروريّ تبنّي سياسات حوكمةٍ فعّالةٍ تضمن حمايتها، وتضمن الاستخدام الأخلاقيّ لتقنيّات الذكاء الاصطناعيّ. كما ينبغي ضمان الشفافيّة في عمليّات صنع القرار الخوارزميّ، للحفاظ على ثقة الجمهور.
- تحيّز الخوارزميّات: يمكن لأنظمة الذكاء الاصطناعيّ أن تعزّز أو تفاقم التحيّزات القائمة، إذا لم يتمّ تصميمها واختبارها بعناية. لذا، يجب أن تضمن هذه الأنظمة تجنّب التمييز، خصوصًا ضدّ الفئات المهمّشة.
- التدريب المهنيّ الشامل للمعلّمين: يفتقر العديد من المعلّمين إلى التدريب اللازم على استخدام تقنيّات الذكاء الاصطناعيّ في التعليم، ما يتطلّب حصولهم على برامج تدريبٍ شاملةٍ، تغطّي المهارات الفنيّة والاستراتيجيّات التربويّة الضروريّة لدمجه في التعليم بفعّاليّة.
- مقاومة تبنّي تقنيّات الذكاء الاصطناعيّ: يجب تعزيز ثقافة الابتكار لتجاوز مقاومة استخدام هذه التقنيّات، والتقليل من المخاوف بشأنها، لتحقيق الاستفادة القصوى منها.
- تعقيدات دمج الذكاء الاصطناعيّ في التعليم: يشمل هذا الدمج العديد من العمليّات المعقّدة، مثل تطوير البنية التحتيّة، وتكييف المناهج الدراسيّة، وتوفير آليّات الدعم المستمرّة.
- محدوديّة الأدلّة حول فعّاليّة الذكاء الاصطناعيّ في التعليم: ما تزال غالبيّة ابتكارات الذكاء الاصطناعيّ في التعليم في مراحلها المبكّرة، ولا تتوفّر أدلّة قاطعةٌ تؤكّد فعّاليّتها، أو إمكانيّة توسيع نطاق استخدامها في البيئات التعليميّة. لذا من الضروريّ إجراء المزيد من الدراسات التجريبيّة لتقييم تأثيرها.
- الآثار الأخلاقيّة لاستخدام الذكاء الاصطناعيّ في التعليم: ينبغي التعامل بحذرٍ مع استخدام الذكاء الاصطناعيّ، لا سيّما عندما يتعلّق الأمر بالنزاهة الأكاديميّة والاستخدام المسؤول. يحتاج المعلّمون إلى تطوير استراتيجيّات تقييمٍ للتقليل من المخاطر المرتبطة بأدوات الذكاء الاصطناعيّ التوليديّة.
- التوزيع العادل للموارد: يشكّل ضمان التوزيع العادل للموارد تحدّيًا كبيرًا، ولا سيّما الموارد البشريّة، مثل المعلّمين المؤهّلين. بالرغم من أنّ آليّات التعيين المركزيّة المدعومة بالذكاء الاصطناعيّ قد تسهم في تحسين هذا التوزيع، إلّا أنّها تتطلّب تصميمًا وتنفيذًا دقيقَين لضمان فعّاليّتها.
- الحاجة إلى سياسات حوكمةٍ واضحة: من الضروريّ وضع سياسات حوكمةٍ واضحةٍ، توجّه الاستخدام الأخلاقيّ للذكاء الاصطناعيّ في التعليم، تشمل المبادئ التوجيهيّة الأخلاقيّة، ولوائح حماية البيانات، والأطر اللازمة لرصد مبادرات الذكاء الاصطناعيّ وتقييمها.