نُشر في 29 أبريل 2026
أقامت عائلات ضحايا إطلاق نار في بلدة نائية في جبال روكي الكندية دعوى ضد شركة الذكاء الاصطناعي OpenAI أمام محكمة اتحادية أميركية، مدّعين أن مصنّع ChatGPT فشل في إبلاغ الشرطة بتفاعلات مقلقة أجراها مطلق النار مع الدردشة الآلية.
قدمت دعوى يوم الأربعاء نيابة عن مايا جبالة، البالغة من العمر 12 عاماً والتي أُصيبت إصابة بالغة خلال الحادث في فبراير، وتُعد إحدى أولى قضايا أكثر من عشرين قضية رفعتها عائلات من تامبلر ردج في بريتيش كولومبيا، فيما يقول محاموهم إنه يمثل «مَجتمعاً كاملاً يتقدّم لمساءلة OpenAI».
ستة دعاوى أخرى رفعت في محكمة اتحادية في سان فرانسيسكو تتضمن مطالبات بالمسؤولية عن الوفاة نيابةً عن خمسة أطفال ومُعلِّمة قُتلت في ما يُعتبر من أسوأ حوادث إطلاق النار الجماعي في كندا منذ سنوات.
تتضمن القضايا عائلات الأطفال الخمسة الذين استُهدفوا في الهجوم المدرسي: زوي بينوايت، وآبل موانسا جونيور، وتيكاريا «تيكي» لامبرت، وكايلي سميث (كلهم في الثانية عشرة من العمر)، وإزكيال سكوفيلد (13 عاماً)، بالإضافة إلى مساعدة التعليم شاندا أفيغانا-دوراند.
تُركّز الدعاوى على تفاعلات جيسي فان روتسيلار مع ChatGPT؛ أطلقَت النار على والدتها وأخوها غير الشقيق في المنزل، ثم قتلت مساعدة تعليمية وخمسة طلاب تتراوح أعمارهم بين 12 و13 عاماً في مدرستها السابقة في 10 فبراير، بحسب الشرطة. كانت فان روتسيلار تبلغ من العمر 18 عاماً ثم انتحرت، كما أُصيب 25 شخصاً آخرين في الهجوم.
وصف متحدث باسم OpenAI الحادثة بأنّها «مأساة»، وقال إن للشركة سياسة عدم تسامح مطلق مع استخدام أدواتها للمساعدة في ارتكاب أعمال عنف.
«كما أخبرنا المسؤولين الكنديين، عززنا بالفعل تدابير الحماية لدينا، بما في ذلك تحسين استجابة ChatGPT لمؤشرات الضيق، وربط الأشخاص بموارد الدعم المحلي والصحة النفسية، وتقوية طرق تقييمنا وتصعيدنا للتهديدات المحتملة بالعنف، وتحسين كشف المُخالفين المتكررِين للسياسة» قال المتحدث في بيان.
أرسل المدير التنفيذي سام ألتمان رسالة الأسبوع الماضي اعتذر فيها رسمياً للمجتمع لأن شركته لم تبلغ جهات إنفاذ القانون عن سلوك المطلق النار على الإنترنت.
تنتمي هذه القضايا إلى موجة متزايدة من الدعاوى التي تتّهم شركات الذكاء الاصطناعي بالفشل في منع تفاعلات مع روبوتات الدردشة يقول المدّعون إنها تسهم في الإيذاء الذاتي والاضطرابات النفسية والعنف. وتبدو هذه الدعاوى الأولى في الولايات المتحدة التي تدّعي أن ChatGPT لعب دوراً في تسهيل هجوم جماعي.
يقول المحامي جاي إيدلسون، ممثل المدّعين، إنه يخطط لرفع حوالى عشرين دعوى إضافية في الأسابيع المقبلة نيابة عن آخرين تأثروا بالهجوم.
تفيد إحدى الشكاوى بأن أنظمة OpenAI الآلية رصدت في يونيو 2025 محادثات في ChatGPT وصف فيها المهاجم سيناريوهات عنف مسلح.
السلامة على الهامش
أوصى أعضاء فريق السلامة بالاتصال بالشرطة بعد استنتاجهم أنها تشكّل تهديداً وشيكاً وموثوقاً للآخرين، حسبما ورد في الشكوى، مستشهداً بتقرير لصحيفة وول ستريت جورنال من فبراير حول المناقشات الداخلية للشركة.
لكن ألتمان وقيادات أخرى في OpenAI تجاوزوا فريق السلامة، ولم تُستدعَ الشرطة أبداً، كما تزعم الدعوى. حُذف حساب المهاجمة، لكنها تمكّنت من إنشاء حساب جديد ومواصلة استخدام المنصة للتخطيط لهجومها، وفقاً للشكوى.
عقب تقرير وول ستريت جورنال، أكدت الشركة أن الحساب رُصد بواسطة أنظمة تحدد «إساءة استخدام نماذجنا في خدمة نشاطات عنيفة» لكنه لم يلبِّ معاييرها الداخلية للإحالة لجهات إنفاذ القانون.
تزعم الدعاوى أن «الضحايا لم يعرفوا ذلك لأن OpenAI كانت صريحة، بل لأن موظفين فيها سربوا المعلومات لصحيفة وول ستريت جورنال بعدما لم يستطيعوا احتمال صمت الشركة.»
في مدوّنة نُشرت يوم الثلاثاء، قالت OpenAI إنها تُدرّب نماذجها على رفض الطلبات التي قد «تمكّن العنف بشكل ملموس» وتخطر جهات إنفاذ القانون عندما توحي المحادثات بوجود «خطر وشيك وموثوق بإلحاق ضرر بالآخرين»، بمساعدة خبراء صحة نفسية في تقييم الحالات الحدّية. وأضافت أن الشركة تواصل تحسين نماذجها وطرق الكشف بناءً على الاستخدام ومدخلات الخبراء.
تسعى الدعاوى إلى مبالغ تعويضية لم يُحدد قدرها وأمر محكمة يلزم OpenAI بإصلاح ممارساتها الأمنية، بما في ذلك بروتوكولات إلزامية لإحالة قضايا لجهات إنفاذ القانون. أحد الضحايا رفع دعواه أصلاً في محكمة كندية لكنه سحبها ليتابع دعاواه في كاليفورنيا، بحسب إيدلسون.
تتبع هذه القضايا دعاوى مماثلة رفعت في محاكم الولايات والمحاكم الفيدرالية الأمريكية في الأشهر الأخيرة، زعمت أن ChatGPT سهل سلوكاً ضاراً وانتحاراً، وفي حالة واحدة على الأقل، جريمة قتل-انتحار.
تبقى القضايا في مراحلها الأولى ومن المتوقع أن تختبر الدور الذي يمكن أن تلعبه منصات الذكاء الاصطناعي في تيسير العنف وما إذا كان بالإمكان تحميل الشركات مسؤولية أفعال المستخدمين. تنفي OpenAI المزاعم، بحجة، في قضية القتل-الانتحار، أن الجاني كان لديه تاريخ طويل من المرض النفسي.