حماية حق الاطفال في الخصوصية في عصر الذكاء الاصطناعي
عندما أغلقت المدارس في عام 2020 بسبب جائحة كوفيد-19، سارع المعلمون وأولياء الأمور إلى تبنّي منصات رقمية وتقنيات تعليمية للحفاظ على استمرارية التعلم من المنزل. لكن ما بدأ استجابة طارئة تحوّل خلال السنوات التالية إلى بنية رقابية منظَّمة تنتهك حقوق الإنسان: شركات تكنولوجية تعليمية تجمع بيانات طلابية أوسع بكثير مما يلزم، تتابع سلوك الأطفال، تبني ملفات تعريف مفصلة، وفي بعض الحالات تبيع هذه المعلومة إلى أطراف ثالثة.
اندماج الذكاء الاصطناعي السريع داخل الفصول غيّر آليات التعليم جذريًا. كثير من الأنظمة التعليمية تعتبر الذكاء الاصطناعي استعدادًا أساسيًا لمستقبل الطلاب، وتوجّه موارد عامة كبيرة نحو هذه التقنيات. ومع ذلك، وثّق باحثون ومنظمات حقوقية أن نشرَ هذه التقنيات غالبًا ما تمّ من دون ضوابط كافية، ما عرض الأطفال والفئات المهمَّشة لانتهاكات جسيمة لحقوقهم.
الفرص والتحديات
لا بد من الاعتراف أيضاً بالإمكانات التي يوفّرها الذكاء الاصطناعي لدعم الحق في التعليم والدمج. بمقتضى القانون الدولي، وخصوصًا اتفاقية حقوق الطفل، يمكن لأنظمة مدروسة جيدًا أن تكيّف التعليم ليلائم احتياجات المتعلّمين المتنوّعين، وأن تتيح محتوى قابلًا للتكيّف لذوي الإعاقة، وتسهم في كشف الفجوات التعليمية مبكّرًا. أدوات الذكاء الاصطناعي المصممة للمتعلمين قد توفّر دعماً مخصّصًا يقلّل معدلات التسرب، بينما تساعد المدرّسين على تقليل الأعباء الإدارية وتوفّر لهم وقتًا أكبر للتفاعل التربوي. دراسات وأوراق سياسة، بينها وثائق من منظمة التعاون الاقتصادي والتنمية، تشير إلى أن الذكاء الاصطناعي يمكن أن يُعزّز العدالة والشمول إذا صاحبته سياسات مدروسة تتناول مسألة الوصول والتحيّز والشفافية.
ثلاث مخاطر حقوقية جوهرية
– تآكل حق الأطفال في الخصوصية عبر المراقبة المنهجية.
– الاستغلال التجاري لبيانات الطلاب.
– غياب الشفافية والمساءلة في عمل نظم التعليم الرقمي.
الخصوصية والمراقبة واستغلال البينات
مع رقمنة الفصول، ظهر أثر جانبي مقلق يتمثل في مراقبة الطلاب. تحقيق بارز أجرته هيومن رايتس ووتش في 2022 أظهر أن حكومات في 49 دولة أوصت أو فرضت استخدام أدوات تعليمية إلكترونية تقوم بمراقبة متعلمة بشكل منهجي أثناء التعليم عن بُعد. وجدت المنظمة أن 89% (146 من أصل 164) من الأدوات الموصى بها من قبل حكومات اتّبعت ممارسات بيانات تعرض حقوق الأطفال للخطر. وفي المقابل ثبُت أن عدداً من المنصات في دول مثل فرنسا وألمانيا واليابان والأرجنتين تعمل دون أي تقنيات تتبّع، مما يبيّن أن المنصات التعليمية يمكن أن تزدهر دون التضحية بالخصوصية إذا اختار مقدموها ذلك. خلص تحقيق هيومن رايتس ووتش إلى أن الحكومات أخفقت في واجبها بحماية حق الأطفال في الخصوصية والتعليم وحرية الفكر أثناء نشر هذه المنصات في الجائحة.
حلول التعليم الرقمي التي تراقب الطلاب تتتبّع أنشطتهم خارج أوقات المدرسة وتنقل بياناتهم إلى شركات إعلانية دون موافقات صحيحة أو شفافية حقيقية. كثير من هذه المنتجات تملك القدرة — وغالبًا بطرق سرية — على رصد الأطفال، وجمع بيانات شخصية مثل هويتهم، مواقعهم، سلوكهم داخل الصف، روابطهم العائلية والاجتماعية، وحتى نوع الجهاز الذي تملكه أسرهم.
هذا التوجّه نحو “حلول تقنية” تفوّق اعتبار الحقوق أسهم في خلق بنية مراقبة باقية إلى اليوم. من منظور حقوقي، تنتهك هذه الممارسات عدداً من الحمايات المرتبطة ببعضها: تضعف حق الخصوصية، وتناقض مبدأ مصلحة الطفل الفضلى، وتَهدِم الحق في تعليم خالٍ من الاستغلال. المراقبة المتوغّلة خلال سنوات التكوين تطبّع الرقابة المستمرة وقد تشكّل فهم الشباب للخصوصية والاستقلالية وعلاقتهم بالسلطة بما يتجاوز جدران المدرسة.
استغلال بيانات الطلاب من قبل جهات تجارية
أظهر بحث في Internet Safety Labs عام 2022 أن ما يصل إلى 96% من التطبيقات المستخدمة في المدارس الأمريكية تشارك معلومات طلابية مع أطراف ثالثة، وأن 78% منها تتشارك هذه البيانات مع معلنين وسماسرة بيانات. بما أن الأطفال فئة معرضة للضعف، فإن بياناتهم — التي باتت تشمل أحيانًا بيانات بيومترية — ينبغي حمايتها بأعلى درجات الحيطة. يقع على عاتق الحكومات واجب أساسي في حماية حقوق الأطفال، حتى عندما تطوّر شركات خاصة وتدير التقنيات. إلا أن كثيرًا من منتجات التعليم الرقمي تُضمّن تقنيات تتعقّب سلوك الأطفال عبر سياقات متعددة، وتشارك معلومات تفصيلية عن هويتهم ومواقعهم وطريقة تعلمهم مع منظومات الإعلان الرقمي، غالبًا دون موافقة واضحة أو وعي من الأهالي.
المتعقّبات الإعلانية المدمجة في المنصات التعليمية تُرسل بيانات الطلاب إلى شبكة من الجهات الثالثة بما في ذلك منصات تسويق، وشركات تحليلات، وسماسرة بيانات يقومون بتركيب هذه المعلومات في ملفات سلوكية دقيقة تُستخدم لأغراض استهداف تجاري. مثال صارخ حدث في البرازيل: منصة التعلم العامة “Estude em Casa” في ولاية ميناس جرايس كانت تنقل بيانات أنشطة التلاميذ إلى شركة إعلانات طرف ثالث عبر متتبعات إعلانية، وملفات تعريف الارتباط للجهات الثالثة، وAudience Remarketing في Google Analytics. يعني ذلك أن سلوك التعلّم لدى الأطفال صار يُغذّي منظومات إعلانية بعيدة كل البعد عن الأغراض التعليمية المقصودة. بعد تقارير هيومن رايتس ووتش في أواخر 2022 وبدايات 2023، أزالت أمانة تعليم ميناس جرايس كل متتبعات الإعلانات من المنصة في مارس 2023، ممّا يبيّن الحاجة الملحّة إلى ضوابط أقوى لحماية الخصوصية الرقمية للأطفال.
غياب الشفافية والمساءلة
اتسع دور الذكاء الاصطناعي في التعليم ليشمل جميع مستويات الأنظمة المدرسية، ويبرّره أنصاره بمسوغات الكفاءة، والأمان، والتعلم الفردي. تنشأ مخاطر حقوقية عندما تصبح هذه الأنظمة إلزامية، تعمل من دون شفافية، تتطلّب جمع بيانات مفرطًا، وتظهر أداءً غير موثوق، لا سيّما لدى فئات لا تملك القدرة الحقيقية على الموافقة.
حالة إنفاذ رفيعة المستوى في ديسمبر 2025 في الولايات المتحدة تُظهر مدى الضرر الذي يمكن أن يسببه غياب الشفافية والمساءلة من قبل شركات EdTech. بعد هجوم إلكتروني عام 2021 كشف معلومات شخصية لأكثر من 10 ملايين طالب، بما في ذلك الدرجات وبيانات صحية وسجلات حسّاسة أخرى، تحرّك المنظمون الفدراليون ووزراء العدل في ولايات كاليفورنيا وكنيتيكت ونيويورك ضد مزود التكنولوجيا التعليمية “Illuminate Education”. خلُصت الجهات الرقابية إلى أن الشركة مضلّلة بشأن إجراءاتها الأمنية، لم تصلّح ثغرات معروفة، وأخّرت إبلاغ المدارس والأسر بالخرق. نص التسوية على إجراءات أمنية أقوى وحذف بيانات غير ضرورية وفرض غرامات بقيمة 5.1 مليون دولار، لكنّها قدمت القليل من التعويض المعنوي والعملي للطلاب المتأثرين، مما يبيّن أن إجراءات الإنفاذ غالبًا ما تأتي بعد وقوع الأذى وأن الشركات التجارية تُتاح لها جمع مخزونات ضخمة من بيانات الطلاب مع تحويل تبعات الفشل إلى الأطفال والعائلات والمؤسسات العامة.
المضي قُدماً: بناء أنظمة تعليمية مدعومة بالذكاء الاصطناعي ومبنية على الحقوق
مع استمرار تسارع دمج الذكاء الاصطناعي في التعليم في 2026، لا بدّ من أطر حوكمة شاملة تكرّس احترام حقوق الإنسان. ليس بالضرورة أن يكون الذكاء الاصطناعي في التعليم متعارضًا مع مبادئ الحقوق، لكنّ الممارسات الراهنة في كثير من الأحيان كذلك.
محاذاة نشر الذكاء الاصطناعي مع معايير حقوق الإنسان تتطلّب إصلاحات جوهرية في كل من القطاع العام والخاص. منظمات دولية تعمل على توجيهات لاستخدام مسؤول للذكاء الاصطناعي؛ فعلى سبيل المثال، تقدّم اليونيسف ضمن مشروع “الذكاء الاصطناعي من أجل الأطفال” إرشادات 2025 التي تضع عشر متطلبات لـ«ذكاء اصطناعي متمحور حول الطفل»، منها الرقابة التنظيمية، خصوصية البيانات، عدم التمييز، الأمان، الشفافية، المساءلة، والإدماج. تهدف هذه المبادئ إلى ضمان أن الأنظمة التكنولوجية تحترم حقوق الأطفال ويُصمّم حكمها لحمايتهم وخدمتهم.
نهج قائم على الحقوق يقتضي إعادة ترتيب الأولويات: بدلاً من تجربة تقنيات غير مثبتة على الأطفال، علينا أن نسأل أولًا ما الذي يحتاجه الأطفال وما الحمايات التي تتطلّبها حقوقهم. يجب تقييم الابتكار ليس بمقدار تعقيد الحلول التقنية أو وعود الكفاءة فحسب، بل بقدرته المثبتة على تحسين جودة التعليم واحترام كرامة وحقوق الأطفال. من دون هذا التحوّل، قد يتحوّل الذكاء الاصطناعي إلى أداة تفرض أضرارًا ثقيلة على أولئك الأطفال الأكثر هشاشة وتهميشًا داخل منظومات التعليم. على من يؤمنون بأهمية حقوق الأطفال أن يعترضوا بجرأة على الادعاءات حول «إمكانات» الذكاء الاصطناعي، ويطالبوا بأدلة ملموسة وتنظيم قوي قائم على الحقوق لضمان تطوير هذه الأنظمة وإخضاعها للمساءلة ومعالجة المخاطر المعروفة وتلك الناشئة.