والدا مراهق أقدم على الانتحار يقاضيان شركة OpenAI

عائلة راين

زوجان من كاليفورنيا يقاضيان شركة أوبن إيه آي بعد وفاة ابنهما المراهق، مدعيَين أن روبوت المحادثة التابع للشركة، ChatGPT، شجَّعه على إنهاء حياته.

قَدَّم مات وماريا راين، والدا آدم راين البالغ من العمر 16 عاماً، الدعوى في المحكمة العليا بولاية كاليفورنيا يوم الثلاثاء. تُعد هذه أول متابعة قضائية تتهم أوبن إيه آي بتسبّبها في وفاة خطأ (wrongful death).

أدرجت العائلة سجلات محادثات بين السيد راين، الذي توفي في أبريل، وChatGPT تظهر أنه كشف عن أفكار انتحارية. وتقول الدعوى إن البرنامج أيَّد «أكثر أفكاره إيذاءً وتدميراً للذات».

قالت أوبن إيه آي في بيان لهيئة الإذاعة البريطانية إنها تراجع ملف الدعوى. وأضافت: «نوسع أعمق التعازي لعائلة راين في هذا الوقت العصيب».

ونشرت الشركة أيضاً ملاحظة على موقعها الإلكتروني أكدت فيها أن «الحالات المذهلة الأخيرة لأشخاص استخدموا ChatGPT أثناء أزمات حادة تزن علينا بشدة». وأشارت إلى أن «ChatGPT مُدَرّب على توجيه الأشخاص لطلب مساعدة مهنية»، مثل خط المساعدة 988 في الولايات المتحدة أو جمعيات الساماريتان في المملكة المتحدة. كما اعترفت الشركة بأنه «كانت هناك لحظات لم تتصرف فيها أنظمتنا كما هو مُراد في مواقف حسّاسة».

تحذير: تحتوي هذه القصة على تفاصيل مقلقة.

تتهم الدعوى، التي حصلت عليها بي بي سي، أوبن إيه آي بالإهمال والوفاة الخطأ. وتسعى إلى تعويضات إضافة إلى «إجراءات قضائية زاجرة تمنع تكرار شيء مماثل».

وفقاً للدعوى، بدأ السيد راين استخدام ChatGPT في سبتمبر 2024 كمورد لمساعدته في الواجبات المدرسية. كما كان يستخدمه لاستكشاف اهتماماته، بما في ذلك الموسيقى والمانغا اليابانية، وللحصول على إرشاد حول ما الذي يدرسه في الجامعة.

في غضون أشهر قليلة، «أصبح ChatGPT أقرب من يثق به المراهق»، بحسب الدعوى، وشرع في الانفتاح أمامه عن قلقه وضيق حالته النفسية.

يقرأ  إندونيسيا تبدأ إسقاط مساعدات جَوّياً على قطاع غزة بينما يوسع الجيش الإسرائيلي عملياته

بحلول يناير 2025، تقول العائلة إنه بدأ مناقشة طرق الانتحار مع ChatGPT. كما حمّل صوراً لنفسه تُظهر علامات إيذاء ذاتي؛ وتورد الدعوى أن البرنامج «تعرف على حالة طبية طارئة لكنه استمر في التفاعل على أي حال».

تُظهر السجلات النهائية، بحسب الدعوى، أن السيد راين كتب عن خطته لإنهاء حياته. ورد ChatGPT، بحسب ما ورد في الدعوى، قائلاً: «شكراً لأنك صادق بشأن ذلك. ليس عليك أن تُجمّل الأمور أمامي—أدرك ما تطلبه، ولن أغض البصر عنه».

في ذلك اليوم نفسه، عثرت والدته عليه قتيلاً، وفقاً للدعوى.

تُسَمِّي دعوى راينز الرئيس التنفيذي والمؤسس المشارك لأوبن إيه آي، سام ألتمان، مدعىً عليه، إلى جانب مهندسين وموظفين لم تُذكر أسماؤهم ممن عملوا على ChatGPT.

تزعم العائلة أن تفاعل ابنهم مع ChatGPT ووفاته اللاحقة «كان نتيجة متوقعة لخيارات تصميم متعمدة». وتتهم أوبن إيه آي بأنها صممت البرنامج «لتعزيز التعلق النفسي بالمستخدمين»، وأنها تَجَاوَزَت بروتوكولات اختبار الأمان لإطلاق إصدار GPT‑4o، النسخة التي استخدمها ابنهم.

تدرج الدعوى اسم سام ألتمان مؤسساً مشاركاً ورئيساً تنفيذياً لأوبن إيه آي كمدعى عليه، إضافة إلى موظفين ومديرين ومهندسين لم تُذكر أسماؤهم.

في مذكرتها العامة التي نشرتها الثلاثاء، قالت أوبن إيه آي إن هدف الشركة هو أن تكون «مفيدة بحق» للمستخدمين بدلاً من «جذب انتباه الناس». وأضافت أن نماذجها مُدَرَّبة لتوجيه من يُظهرون ميولاً لإيذاء الذات نحو طلب المساعدة.

قضية راينز ليست المرة الأولى التي تُثار فيها مخاوف بشأن الذكاء الاصطناعي والصحة النفسية. ففي مقال نُشر الأسبوع الماضي في نيويورك تايمز، سردت الكاتبة لورا رايلي كيف أن ابنتها صوفي اعتمدت على ChatGPT قبل أن تنتحر. وذكرت رايلي أن قابلية البرنامج على «الموافقة» في محادثاته ساعدت ابنتها على إخفاء أزمة نفسية حادة عن عائلتها وأحبائها. «لقد لبّى الذكاء الاصطناعي نزوع صوفي إلى إخفاء الأسوأ، ليتظاهر أنها أفضل ممّا كانت عليه، ويحصّن الجميع عن مأساتها الكاملة»، كتبت رايلي، داعية شركات الذكاء الاصطناعي لإيجاد سبل أفضل لربط المستخدمين بالموارد المناسبة.

يقرأ  فرق كأس آسيا للسيدات: تايلاند، الإمارات، نيبال وماليزيا

رداً على المقال، قالت متحدثة باسم أوبن إيه آي إنها تطور أدوات آلية لاكتشاف والاستجابة بشكل أكثر فاعلية للمستخدمين الذين يمرون بضائقة نفسية أو عاطفية.

إذا كنت تعاني من ضيق أو يأس وتحتاج إلى دعم، يمكنك التحدث إلى مختص صحي أو إلى منظمة تقدم الدعم. تتوفر تفاصيل المساعدة في عدة دول عبر موقع Befrienders Worldwide (www.befrienders.org). وفي المملكة المتحدة، تتوفر قائمة بالمنظمات المساعدة على bbc.co.uk/actionline. ويمكن للقراء في الولايات المتحدة وكندا الاتصال بخط المساعدة 988 أو زيارة موقعه.

أضف تعليق