هل ينبغي لروبوتات الدردشة المدعومة بالذكاء الاصطناعي أن تساعد الطلاب في الحفاظ على صحتهم النفسية؟

ألونغسايد تملك خططاً طموحة لكسر الدورات السلبية قبل أن تتطور إلى حالات سريرية، حسبما قالت الدكتورة إلسا فريس، أخصائية نفسية مرخّصة تعمل مع الشركة ولها خبرة في الكشف عن اضطرابات طيف التوحد، واضطراب فرط الحركة وتشتت الانتباه، ومخاطر الانتحار باستخدام نماذج اللغة الكبيرة.

يعمل تطبيق ألونغسايد حالياً بالشراكة مع أكثر من 200 مدرسة في 19 ولاية، ويجمع محادثات الطلاب لاستخدامها في تقريره السنوي عن صحة الشباب النفسية — وهو تقرير غير محكّم علمياً. وقد كانت نتائج هذا العام، كما قالت فريس، مفاجئة: قلّما ذكَر المستخدمون قضايا وسائل التواصل أو التنمر الإلكتروني، بينما كانت مشكلاتهم الأكثر إلحاحاً مرتبطة بشعورهم بالإرهاق، واضطرابات النوم، ومشكلات العلاقات.

تفخر ألونغسايد بعرض نقاط بيانات إيجابية وبصيرة في تقريرها وفي دراسة تجريبية نُفِّذت في أوائل 2025، لكن خبراء مثل ريان مكباين، باحث في مؤسسة راند، يرون أن هذه البيانات ليست قوية بما يكفي لفهم التداعيات الحقيقية لهذه الأدوات الذكية للصحة النفسية.

«إذا كنت ستطرح منتجاً يستهدف ملايين الأطفال والمراهقين في الولايات المتحدة عبر أنظمة المدارس، فيجب أن يلتزم بمعايير دنيا في سياق تجارب صارمة وموثوقة»، قال مكباين.

لكن تحت كل أرقام التقرير، ماذا يعني فعلاً أن يصل الطالب إلى روبوت دردشة على مدار الساعة مصمَّم لمعالجة همومه النفسية والاجتماعية والسلوكية؟

ما الفرق بين روبوتات الدردشة الذكية والرفاق الاصطناعيين؟

الرفاق الاصطناعيون يندرجون تحت مظلّة أوسع لروبوتات الدردشة. ورغم تطور الروبوتات، تتميّز الرفاق الاصطناعيون بشكل التفاعل معهم: عادةً ما تكون محدودة الحواجز البرمجية، أي مصمَّمون للتكيّف المستمر مع مدخلات المستخدم؛ بينما قد يتضمّن روبوت دردشة قياسي حواجز أكثر للحفاظ على سير المحادثة ضمن موضوع أو مهمة محددة. على سبيل المثال، روبوت دعم لشركة توصيل طعام مُبرمج للاستجابة فقط لمشكلات الطلب والتطبيق، وليس للانحراف عن الموضوع لأنه ببساطة لا يملك تعليمات للتعامل مع ذلك.

لكن الخط الفاصل يتلاشى مع ازدياد استخدام الناس لروبوتات مثل ChatGPT كلوح للتنفيس العاطفي أو الدعم العلاجي. سمات إرضاء المستخدم في الرفاق الاصطناعيين أصبحت مصدراً متنامياً للقلق، لا سيما عندما يلجأ المراهقون والأشخاص الضعفاء أحياناً إلى هذه الرفاق لتأييد أفكار انتحارية أو أوهام أو اعتماد غير صحي عليها.

تقرير حديث صادر عن مؤسسة “كومون سينس ميديا” وسّع النقاش حول الأضرار التي قد تترتب على استعمال الرفاق الاصطناعيين بين المراهقين. ووجد التقرير أن منصات مثل Character.AI مصمَّمة لتمثيل تفاعل أشبه بالبشري في صورة «أصدقاء افتراضيين، ومستشارين موثوقين، وحتى معالجين».

ورغم أن التقرير ذهب إلى أن الرفاق الاصطناعيين «يمثلون مخاطر غير مقبولة» على مستخدمين دون 18 عاماً، فإن الشباب لا يزالون يلجأون إلى هذه المنصات بمعدلات مرتفعة.

من تقرير كومون سينس ميديا 2025 بعنوان «حديث وثقة ومقايضات: كيف ولماذا يستخدم المراهقون الرفاق الاصطناعيين»

أفاد 72% من بين 1,060 مراهقاً شملهم الاستطلاع بأنهم استخدموا رفيقاً اصطناعياً من قبل، بينما كان 52% منهم مستخدمين منتظمين لهذه الرفاق. ومع ذلك، وجد التقرير أن غالبية المراهقين يعطون قيمة أكبر للصداقة البشرية مقارنة بالرفاق الاصطناعيين، وأنهم يميلون إلى عدم مشاركة معلومات شخصية معهم، ويبدون قدراً من الشك تجاههم. كما ذكر 39% من المراهقين أنهم يطبّقون مهارات مارسُوها مع الرفاق الاصطناعيين — مثل التعبير عن المشاعر والاعتذار والدفاع عن النفس — في حياتهم الواقعية.

عند مقارنة توصيات كومون سينس لاستخدام أكثر أماناً للذكاء الاصطناعي مع ميزات روبوت ألونغسايد، يتبيّن أنها تلبي بعض هذه التوصيات — مثل التداخل في الأزمات، وحدود الاستخدام، وعناصر بناء المهارات. وبحسب ميهتا، هناك فرق كبير بين رفيق اصطناعي وروبوت الدردشة الخاص بألونغسايد. فروبوت ألونغسايد مزوَّد بميزات أمان داخلية تُلزِم مراجعة بشرية لمحادثات معيّنة اعتماداً على كلمات مُحمّلة أو عبارات مقلقة. وعلى عكس أدوات الرفاق، يقول ميهتا، فإن ألونغسايد تشجّع الطلبة على عدم الإفراط في المحادثة.

أحد أكبر التحديات التي يواجهها مطوِّرو روبوتات الدردشة مثل ألونغسايد هو التخفيف من ميول إرضاء الناس، وهي سِمة مميزة للرفاق الاصطناعيين، حسبما أشارت فريس. وقد وُضِعت حواجز برمجية لتجنّب إرضاء المستخدم بصورة آلية قد تتحوّل إلى أمور ضارة. «لن نتكيف مع اللغة البذيئة، ولن نتكيّف مع العادات السيئة»، قالت فريس. لكن من مسؤولية فريق ألونغسايد توقع وتحديد أي نوع من اللغة يندرج ضمن فئات ضارة، بما في ذلك محاولات الطلاب استخدام الروبوت للمساعدة في الغش.

يقرأ  كندا تُخفّف معظم الرسوم التعريفية الانتقامية المفروضة على الولايات المتحدةأخبار التجارة الدولية

وتقول فريس إن ألونغسايد تميل إلى الحذر عند تقرير أي لغة تُعد مثيرة للقلق. إذا وُسِمَت محادثة، تُرسَل إشعارات للمعلمين في المدرسة الشريكة على هواتفهم. وفي هذه الأثناء يُطلب من الطالب عبر كيوي إتمام تقييم أزمة ويُوجَّه إلى أرقام خدمات الطوارئ إذا دعت الحاجة.

مواجهة نقص الأفراد والفجوات في الموارد

في البيئات المدرسية حيث نسبة الطلاب إلى المرشدين المدرسيين غالباً ما تكون مرتفعة إلى حد يستحيل معه المتابعة الشخصية، يعمل ألونغسايد كأداة فرز أو حلقة وصل بين الطلاب والبالغين الموثوقين لديهم، حسبما قالت فريس. على سبيل المثال، قد تدور محادثة بين كيوي وطالب حول خطوات عملية لتحسين عادات النوم: قد يُطلب من الطالب التحدث مع والديه لجعل غرفته أكثر ظلمة أو إضافة مصباح ليلي لتحسين بيئة النوم. يعود الطالب بعدها إلى المحادثة ليخبر كيوي إن نجح الحل أم لا. إذا نجح، تُغلق المحادثة؛ وإذا لم ينجح، يمكن لكيوي اقتراح حلول بديلة.

ووفقاً للدكتورة فريّس أشار إلى أن بضع محادثات قصيرة لا تتجاوز خمس دقائق ذهابًا وإيابًا مع «كيـوي» قد تعادل أيامًا، إن لم تكن أسابيع، من المحادثات مع مرشدٍ مدرسي يضطر إلى منح الأولوية للطلاب ذوي الاحتياجات والمشكلات الأشدّ مثل الإيقاف المتكرر، الأفكار الانتحارية، والانقطاع عن الدراسة.

الباحث ماكباين من معهد RAND لاحظ أن فكرة استخدام التقنيات الرقمية لفرز المشكلات الصحيّة ليست جديدة، مشيرًا إلى غرف انتظار الأطباء التي تستقبل المرضى بأدوات فحص صحي على أجهزة آيباد. وقال: «إذا كان الشات بوت مجرد واجهة مستخدم أكثر ديناميكية لجمع هذا النوع من المعلومات، ففكريًا لا أرى مشكلة في ذلك». والسؤال الذي لم يُجب بعد هو ما إذا كانت روبوتات المحادثة مثل كيـوي تؤدي أفضل أم أسوأ من الإنسان؛ والطريقة الوحيدة لمقارنة أداء الإنسان بالشات بوت هي عبر تجارب عشوائية محكمة، بحسب ماكباين.

وأضاف ماكباين أن أحد أخطر مخاوفه يكمن في اندفاع الشركات للدخول إلى السوق بسرعة لتكون الأولى من نوعها، مما قد يؤدي إلى خفض معايير السلامة والجودة بينما تروّج هذه الشركات وشركاؤها الأكاديميون لنتائج متفائلة وملفتة للانتباه عن منتجاتهم.

في الوقت نفسه، يواجه المرشدون المدرسيون ضغوطًا متزايدة لتلبية احتياجات الطلاب بموارد محدودة. قال فريّس: «من الصعب فعلًا خلق المساحة التي يريد المرشدون توفرها؛ المرشدون يرغبون في إجراء تلك التفاعلات، لكن النظام هو الذي يجعل ذلك بالغ الصعوبة».

Alongside تقدم لشركائها من المدارس برامج تطوير مهني وخدمات استشارية، إلى جانب تقاريرٍ فصلية موجزة. كثيرًا ما تتمحور هذه الخدمات حول تجميع البيانات لصياغة طلبات المنح أو تقديم معلومات مقنعة للمشرفين التعليميين، وفق ما ذكره فريّس.

نهج مدعوم بالأبحاث
على موقعها، تروّج Alongside لأساليب مُدعّمة بالأدلة اعتمدت في تطوير شات بوتها، وقد تعاونت الشركة مع الدكتورة جيسيكا شلايدر من جامعة نورثويسترن، المتخصّصة في دراسة وتطوير تدخلات نفسية في جلسة واحدة (SSI) — وهي تدخلات تهدف إلى معالجة المشكلات النفسية وتقديم حل دون توقع جلسات متابعة. وبما أن التدخل الاستشاري النموذجي يستغرق عادةً 12 أسبوعًا على الأقل، بدا نهج الجلسة الواحدة جذابًا لفريق Alongside، لكن فريّس اعترف قائلاً إن ما نعرفه حتى الآن هو أن «لا منتج نجح فعلًا في تحقيق ذلك بكفاءة تامة».

مختبر شلايدر لتوسيع الوصول إلى الصحة النفسية نشر عدة تجارب محكمة ومراجع علمية تُظهر نتائج إيجابية لتطبيق تدخلات الجلسة الواحدة. كما يوفّر المختبر مواد مفتوحة المصدر للآباء والمحترفين المهتمين بتطبيق هذه التدخلات على المراهقين والشباب، ومبادرة Project YES تقدم تدخلات مجانية ومجهولة الهوية على الإنترنت للشباب الذين يعانون من مشكلات نفسية.

ماذا يحدث لبيانات الطالب عند استخدام الذكاء الاصطناعي في التدخّلات النفسية؟
Alongside تجمع بيانات الطلاب من محادثاتهم مع الشات بوت مثل المزاج، ساعات النوم، عادات التمرين، العادات الاجتماعية، التفاعلات على الإنترنت، وغيرها. بينما يمكن أن تمنح هذه البيانات المدارس رؤية أوضح لحياة طلابها، فهي تطرح أيضًا أسئلة جدّية حول المراقبة الطلابية وخصوصية البيانات.

يقرأ  أكثر من ٣٠٠ كوري جنوبي سيعودون إلى بلادهم بعد اعتقالات في مصنع هيونداي بالولايات المتحدة — أخبار الهجرة

استعرض تقرير Common Sense Media لعام 2025 عنوانه «حديث، ثقة وتنازلات: كيف ولماذا يستخدم المراهقون رفقاء الذكاء الاصطناعي».

مثل كثير من أدوات الذكاء التوليدي، تستخدم Alongside واجهات برمجة تطبيقات (APIs) لنماذج لغوية كبرى أخرى — بما في ذلك الشيفرات المستعملة في ChatGPT — والتي تعالج مدخلات الدردشة وتنتج المخرجات. كما طورت الشركة نماذج لغوية داخلية على مدار بضع سنوات. ثمة قلق متزايد بشأن كيفية تخزين بيانات المستخدمين والمعلومات الحساسة، خصوصًا عندما يتعلق الأمر ببيانات طلابية حسّاسة. اختارت شركة Alongside الانضمام إلى سياسة الاحتفاظ الصفري بالبيانات لدى OpenAI، ما يعني أن OpenAI أو النماذج اللغوية الأخرى التي تستخدمها الشركة لا تخزن بيانات الطلاب ولا تُستخدم محادثاتهم لأغراض تدريبية.

ونظرًا لأن Alongside تعمل في مدارس عبر الولايات المتحدة، فهي متوافقة مع قوانين FERPA وCOPPA، لكن البيانات يجب أن تُخزّن في مكان ما. لذلك تُفصل المعلومات الشخصية التعريفية للطالب (PII) عن بيانات المحادثات، وتُخزن هذه المعلومات على منصة Amazon Web Services (AWS)، معيار سحابي شائع لتخزين البيانات الخاصة لدى شركات التكنولوجيا عالميًا.

تستخدم Alongside عملية تشفير تفصل بين بيانات تعريف الطالب ومحادثاته. فقط عند تمييز محادثة ما وضرورة اطلاع بشري لأسباب تتعلق بالسلامة تُعاد ربط المعلومات الشخصية بتلك المحادثة. بالإضافة إلى ذلك، يفرض القانون على Alongside الاحتفاظ بسجلات المحادثات والمعلومات عندما تكون قد أثارت حالة أزمة، ويمكن للآباء والأوصياء طلب هذه المعلومات، كما ذكر فريّس.

عادةً ما تتم موافقات الوالدين وسياسات بيانات الطلاب عبر شركاء المدارس، وكما هو الحال مع أي خدمات مدرسية مثل الإرشاد، ثمة خيار للآباء للانسحاب وفقًا لإرشادات الولاية والمنطقة حول موافقة الوالدين.

تضع Alongside وشركاؤها المدرسيون ضوابط لحماية بيانات الطلاب والحفاظ على سريتها، ومع ذلك فإن خروقات البيانات يمكن أن تحدث.

كيف تُدرَّب نماذج Alongside اللغوية؟
إحدى النماذج اللغوية الداخلية لدى Alongside تُستخدم لتحديد الأزمات المحتملة في محادثات الطلاب وتنبيه الجهات البالغة المعنيّة، بحسب ميهتا. يتم تدريب هذا النموذج على مخرجات حقيقية للطلاب ومخرجات تركيبية وكلمات مفتاحية يدخلها فريق Alongside يدويًا. ونظرًا لأن اللغة متغيرة وغالبًا ما تكون غير مباشرة أو صعبة الرصد، يحتفظ الفريق بسجل مستمر لمصطلحات وعبارات متفاوتة، مثل الاختصار الشائع «KMS» (اختصار لعبارة بالإنجليزية تعني «أن أقتل نفسي») الذي يعيد الفريق تدريب النموذج على فهمه كدلالة أزمة.

وعلى الرغم من أن ميهتا وصف عملية إدخال البيانات يدويًا لتدريب نموذج تقييم الأزمة بأنها من أكبر التحديات التي يواجهها هو وفريقه، إلا أنه لا يرى مستقبلًا يمكن فيه لأداة ذكاء اصطناعي أخرى أن تؤتمت هذه العملية بالكامل. «لن أرتاح إلى أتمتة شيء قد يثير استجابة أزمة» — هكذا قال، مشدداً على تفضيله أن يشارك الفريق السريري الذي تقوده فريس في هذه العملية من منظور سريري وإنساني.

لكن مع إمكانية توسع عدد المدارس الشريكة مع Alongside بسرعة، ستكون متابعة هذه الإجراءات يدوياً أمراً صعباً للغاية، كما أشار روبي تورني، المدير الأول لبرامج الذكاء الاصطناعي في Common Sense Media. ورغم تأكيد Alongside على إدماج المراجعة البشرية في كل من استجاباتها للأزمات وتطوير نماذج اللغة الكبيرة، «لا يمكنك توسيع نظام من هذا النوع بسهولة لأن الحاجة إلى مزيد من المراجعات البشرية ستتفشى»، كما تابع تورني.

تقرير Alongside للعام 2024–25 يتتبع الصراعات التي يواجهها الطلاب في حياتهم لكنه لا يفرّق بين وقوعها عبر الإنترنت أو على أرض الواقع. وبحسب فريس، فالمهم ليس مكان النزاع بقدر ما هو البعد الشخصي للطالب؛ فالأساس هو أن يكون التدخل متمركزاً حول الفرد وأن يراعي ما يهم كل طالب على حدة. وتقدّم المنصة أيضاً دروساً استباقية لبناء مهارات السلامة على وسائل التواصل والوصاية الرقمية.

فيما يخص النوم، تمت برمجة “كيوي” لسؤال الطلاب عن عادات استخدام الهاتف «لأننا نعرف أن وجود الهاتف في غرفة النوم هو أحد أهم الأسباب التي تحرمهم من النوم»، كما أوضح الدكتور فريس.

فحوصات نفسية شاملة متاحة
توفر Alongside أيضاً داخل التطبيق فاحصاً نفسياً شمولياً يمكن للمدارس الاعتماد عليه. إحدى المقاطعات في كورسكانا بولاية تكساس — مدينة نفطية قديمة قرب دالاس — وجدَت أن بيانات هذا الفاحص كانت لا تقدر بثمن. حسب مارجي بولوار، المديرة التنفيذية للبرامج الخاصة في منطقة مدارس كورسكانا المستقلة، كانت المدينة تعاني من حوادث عنف مسلح، لكن المنطقة لم تملك وسيلة لمسح آثار مثل هذه الأحداث على صحة 6,000 طالب نفسياً قبل إدخال Alongside.

يقرأ  المحاكمة تسفر عن حكم بالسجن أربعين عاماً على مهرب أسلحة إثر تهريب صواريخ باليستية من إيران

ذكرت بولوار أن 24% فقط من الطلاب الذين شملهم المسح في كورسكانا لديهم «راشد موثوق» في حياتهم، أي أقل بست نقاط مئوية من متوسط تقرير Alongside للعام 2024–25. «من المدهش أن عدد الأطفال الذين يقولون إنهم يشعرون فعلاً بالارتباط ببالغ موثوق قليل جداً»، علّق فريس. وتشير الأبحاث إلى أن وجود راشد موثوق يدعم الصحة العاطفية والاجتماعية للشباب وقد يخفف آثار التجارب الطفولية الضارة.

في مقاطعة تعتمد فيها المدارس كأكبر جهة موظفة وحيث 80% من الطلاب محرومون اقتصادياً، تكاد موارد الصحة النفسية تكون معدومة. ربطت بولوار بين تصاعد العنف المسلح وارتفاع نسبة الطلاب الذين قالوا إنهم لا يملكون راشداً موثوقاً في البيت. ومع أن بيانات Alongside لم تربط مباشرة بين النتائج والعنف المحلي، فقد وفرت للمرة الأولى رؤية شاملة لحالة الصحة النفسية للطلاب.

شكلت المنطقة فريق عمل لمواجهة قضايا العنف المتزايد وتراجع الصحة النفسية والشعور بالانتماء. ولأول مرة، لم يعد عليهم التخمين بشأن عدد الطلاب الذين يعانون مشكلات سلوكية؛ فقد توافرت لديهم بيانات ممثلة يعتمدون عليها. وبدون مسح الفحص الشامل الذي قدمته Alongside، لكانت المنطقة اكتفت بمسوحات نهاية السنة التي تشتمل على أسئلة عامة مثل «كيف كان عامك؟» و«هل أعجبك معلمك؟»

رأت بولوار أن مسح الفحص الشامل شجع الطلاب على التأمل الذاتي والإجابة بصراحة أكثر مقارنة بمسوحات التغذية الراجعة السابقة.

الموارد الطلابية، وخاصة النفسية، نادرة في كورسكانا، ومع ذلك يوجد في المنطقة طاقم من المستشارين يضم 16 مستشاراً أكاديمياً وستة مستشارين اجتماعيين عاطفيين. وبسبب نقص المستشارين الاجتماعيين العاطفيين، الكثير من طلاب المستوى الأول — أي الذين لا يحتاجون إلى تدخل منتظم فردي أو جماعي — يمرون دون أن يلحظهم الطاقم. رأت بولوار أن Alongside أداة يسيرة الوصول للطلاب تقدم توجيهاً سرياً في مجالات الصحة النفسية والسلوك، كما تمنح المعلمين والإداريين نافذة أفضل على ما وراء الكواليس في صحة الطلاب النفسية.

أشادت بولوار بميزات Alongside الاستباقية مثل الدروس الملعّبة لبناء المهارات للطلاب الذين يواجهون صعوبات في إدارة الوقت أو تنظيم المهام، حيث يكسبون نقاطاً وشارات عند إكمال دروس معينة.

وتسد Alongside فجوة مهمة للعاملين في منطقة مدارس كورسكانا. «الساعات التي يقضيها أطفالنا على Alongside… هي ساعات لا يقضونها في الانتظار أمام مكتب مستشار الدعم الطلابي»، ومع النسبة المنخفضة للمستشارين إلى الطلاب، يتيح ذلك للمستشارين الاجتماعيين العاطفيين التركيز على الطلاب الذين يمرون بأزمة. لم أكن لأتمكن من تخصيص الموارد التي جلبتها Alongside لكورسكانا، على حد قول بولوار.

يتطلب تطبيق Alongside رصداً بشرياً على مدار الساعة من قبل الشركاء المدرسيين. هذا يعني أن معلمين وإداريين معينين في كل منطقة ومدرسة يتلقون تنبيهات طوال اليوم، أي يوم من أيام الأسبوع ومن ضمن العطل. كان هذا الأمر مصدر قلق لبولوار في البداية: «إذا كان أحد الطلاب يعاني في الثالثة صباحاً وكنت نائمة، فكيف سيكون الموقف؟» قالت. وكان على بولوار وفريقها أن يأملوا أن يرى بالغ تنبيه الأزمة بسرعة.

اختُبر نظام المراقبة 24/7 في كورسكانا خلال عطلة عيد الميلاد الماضية. وصل تنبيه واستغرقت بولوار عشر دقائق لتراه على هاتفها؛ وبحلول تلك اللحظة كان الطالب قد بدأ بالفعل بالإجابة على مسح تقييمي دفعه تطبيق Alongside، وكانت المديرة قد رأت التنبيه قبله، ووصلت رسالة نصية من مجلس دعم الطالب. تمكنت بولوار من الاتصال برئيس شرطة المدينة والتعامل مع الأزمة الجارية، وربط الطالب بمستشار في نفس ذلك اليوم بعد الظهر. لم أستلم أي نص لأعيد صياغته وأترجمه. الرجاء لصق النص المراد ترجمته إلى العربية وسأعيد صياغته بمستوى C2 مع إدخال أخطاء شائعة لا تتجاوز اثنين كحد أقصى.

أضف تعليق