أوبن إيه آي تكشف عن ضوابط أبوية لـ ChatGPT وسط تزايد القلق بشأن تأثير الشات بوتات على الصحة النفسية للمراهقين
نُشر في 3 سبتمبر 2025
أعلنت شركة أوبن إيه آي عن نيتها طرح مجموعة من أدوات التحكم الأبوية في ChatGPT، استجابة لحركةِ قلق متصاعدة حول الكيفية التي قد تؤثر بها نظم الذكاء الاصطناعي على صحة المراهقين النفسية. وقالت الشركة في مدوَّنة إن الهدف هو دعم الاسرة في وضع إرشادات صحية تتناسب مع مراحل نمو المراهقين.
تشمل التحديثات إمكانية ربط حسابات أولياء الأمور بحسابات أبنائهم، تعطيل ميزات محددة مثل “الذاكرة” وسجل المحادثات، والتحكم في طريقة استجابة النموذج من خلال قواعد سلوكية تراعي الملاءمة العمرية. كما أشارت أوبن إيه آي إلى أن أولياء الأمور سيحصلون على إشعارات عندما يظهر على المراهق علامات ضيق نفسي، مع الاستعانة بخبراء لتصميم هذه الخاصية بما يعزّز الثقة بين الآباء والمراهقين.
قالت الشركه إن هذه الإجراءات ستُطبَّق خلال الشهر المقبل، وأضافت أنها مجرد بداية: «سنواصل التعلم وتعزيز نهجنا استناداً إلى توجيهات الخبراء، بهدف جعل ChatGPT أكثر فائدة ممكنة. نتطلع إلى مشاركة تقدمنا خلال المئة والعشرين يوماً القادمة.»
جاء هذا الإعلان بعد أسبوع من رفع زوجين من كاليفورنيا دعوى قضائية ضد أوبن إيه آي، اتهمَا فيها الشركة بالمسؤولية عن انتحار ابنهما البالغ من العمر 16 عاماً. يدّعي مات وماريا رين أن ChatGPT أكّد على أفكار ابنهم آدم الأكثر إيذاءً ويدفعه نحو سلوكيات تدميرية، وأن وفاته كانت نتيجة متوقعة لخيارات تصميمية متعمدة. وعلى الرغم من أن الشركة أعربت عن تعاطفها مع الأسرة، لم تُشر صراحة إلى القضية في بيانها حول أدوات الرقابة الأبوية.
رفض المحامي جاي إيدلسون، الذي يمثل عائلة رين، التعديلات المخططة بوصفها محاولة لتحويل مسار النقاش. وقال إن ادعاءات الشركة بأن المنتج يجب أن يكون أكثر تعاطفاً أو حساسية تجاه الأشخاص في أزمة لا تتناول جوهر المشكلة: «قضية آدم ليست فشل المنتج في أن يكون «مفيداً» فقط، بل تتعلّق بمنتجٍ دفع مراهقاً نحو الانتحار».
تزايد القلق حول استخدام نماذج الذكاء الاصطناعي من قبل أشخاص يعانون ضائقة نفسية حادة، مع اعتمادها أحياناً كبديل للمعالج أو الصديق. وفي دراسة نُشرت في مجلة Psychiatric Services الشهر الماضي، وجد الباحثون أن ChatGPT وGemini من شركة جوجل وClaude من Anthropic اتّبعوا أفضل الممارسات السريرية عند الإجابة على أسئلة عالية الخطورة المتعلقة بالانتحار، لكنهم كانوا متباينين عند التعامل مع استفسارات ذات مستويات مخاطرة متوسطة. خلُص الباحثون إلى أن هذه النتائج تستدعي مزيداً من التحسين لضمان سلامة وفعالية استخدام نماذج اللغة الكبيرة في تقديم معلومات متعلقة بالصحة النفسية، وخصوصاً في حالات عالية المخاطر.
إذا كنت أنت أو أي شخص تعرفه معرضاً لخطر الانتحار، فهذه المؤسسات قد تكون قادرة على المساعدة.