أصدرت شركة OpenAI تقديرات جديدة لعدد مستخدمي ChatGPT الذين أظهروا مؤشرات محتملة لحالات طوارئ نفسية، منها الهوس والذهان أو أفكار الانتحار.
وقالت الشركة إن نحو 0.07% من مستخدمي ChatGPT النشيطين في أسبوع معيّن أبدوا مثل هذه المؤشرات، مضيفة أن روبوت الدردشة المبني على الذكاء الاصطناع يتعرّف على هذه الحوارات الحساسة ويتجاوب معها.
ورغم تأكيد OpenAI أن هذه الحالات «نادرة للغاية»، أعرب النقاد عن قلقهم من أن نسبة صغيرة مماثلة قد تعني مئات الآلاف من الأشخاص، لا سيما بعدما بلغ عدد مستخدمي ChatGPT النشطين أسبوعياً نحو 800 مليون، بحسب سام ألتمان.
ومع تزايد التدقيق، أفادت الشركة بأنها أنشأت شبكة عالمية من الخبراء لتقديم المشورة لها.
وتشمل هذه الشبكة أكثر من 170 طبيبًا نفسيًا وأخصائي نفساني وأطباء رعاية أولية مارسوا مهنتهم في 60 دولة، وفق ما قالت الشركة.
وقد وضع هؤلاء الخبراء سلسلة من الردود داخل ChatGPT لتشجيع المستخدمين على طلب المساعدة في العالم الواقعي، بحسب OpenAI.
لكن الاطلاع على بيانات الشركة أثار استغراب بعض المتخصصين في الصحة النفسية.
وقال الدكتور جيسون ناجاتا، أستاذ يدرس استخدام التكنولوجيا بين البالغين الشباب في جامعة كاليفورنيا بسان فرانسيسكو: «رغم أن 0.07% تبدو نسبة صغيرة، إلا أنها على مستوى السكان الذين يبلغ عددهم مئات الملايين قد تمثّل فعلاً أعدادًا كبيرة من الناس».
وأضاف: «يمكن للذكاء الاصطناعي أن يوسّع الوصول إلى دعم الصحة النفسية، وفي بعض النواحي أن يدعمها، لكن علينا أن نكون واعين للقيود».
وتقدّر الشركة أيضاً أن 0.15% من محادثات مستخدمي ChatGPT تتضمن «مؤشرات صريحة على تخطيط محتمل للانتحار أو نية انتحارية».
وقالت OpenAI إن التحديثات الأخيرة لروبوت الدردشة تهدف إلى «التعامل بأمان وتفهّم مع المؤشرات المحتملة للضلال أو الهوس» والإشارة إلى «الإشارات غير المباشرة لخطر الإيذاء الذاتي أو الانتحار».
وقد تم تدريب ChatGPT كذلك على إعادة توجيه المحادثات الحساسة «المنبثقة من نماذج أخرى إلى نماذج أكثر أمانًا» عبر فتحها في نافذة جديدة.
وردًّا على تساؤلات البي بي سي بشأن الانتقادات المتصلة بأعداد الأشخاص المحتمل تضررهم، قالت OpenAI إن هذه النسبة الصغيرة تمثل عددًا ذا معنى من الأشخاص وأنها تتعامل مع التغييرات بجدّية.
وتأتي هذه التعديلات فيما تواجه الشركة تدقيقًا قضائيًا متزايدًا على طريقة تفاعل ChatGPT مع المستخدمين.
وفي واحدة من أبرز الدعاوى القضائية التي رُفعت مؤخرًا ضد OpenAI، رفع زوجان في كاليفورنيا دعوى يتهمان فيها الشركة بالمسؤولية عن وفاة ابنهما المراهق، مدعين أن ChatGPT شجعه على الانتحار في أبريل الماضي.
وقد قدّم والداهما دعوى وفاة بالخطأ نيابة عن آدم راين البالغ من العمر 16 عامًا، وكانت هذه أول خطوة قانونية تتّهم OpenAI بوفاة ناجمة عن عمل خاطئ.
وفي قضية منفصلة، نشر المشتبه به في حادثة قتل وانتحار وقعت في أغسطس في جرينتش بكونيتيكت ساعات من محادثاته مع ChatGPT، التي بدا أنها غذّت أوهام الفاعل المزعوم.
وقالت البروفيسورة روبين فيلدمان، مديرة معهد قانون وابتكار الذكاء الاصطناعي بجامعة كاليفورنيا للقانون: «المزيد من المستخدمين يواجهون ذهانًا مرتبطًا بالذكاء الاصطناعي لأن روبوتات الدردشة تخلق وهم الواقع. إنه وهم قوي».
وأضافت أن OpenAI تستحق الثناء لمشاركتها الإحصاءات ولجهودها لمعالجة المشكلة، لكنها حذرت: «يمكن للشركة أن تضع جميع أنواع التحذيرات على الشاشة، لكن الشخص الذي يكون معرّضًا نفسيًا قد لا يتمكّن من الالتفات إلى تلك التحذيرات».