«كيف تستخدم الذكاء الاصطناعي؟» خبراء: على المعالجين طرح هذا السؤال

توصيات سابا وزميله تتناغم بدرجة كبيرة مع ملاحظات الجمعية الأمريكية لعلم النفس (APA)، كما تشرح فايل رايت من الجمعية. السؤال عن ما يحصل عليه المراجع من محادثاته مع روبوتات الدردشة القائمة على الذكاء الاصطناعي يضع “قاعدة” تساعد المعالج على فهم كيف يحاول المراجع إدارة صحته العاطفية ومرضه النفسي.

«كنز من المعلومات»

يشرح سابا أن كثيرين يلجأون إلى هذه الأدوات بانتظام للاستفسار عن طرق التعامل مع تجارب ضاغطة ومشكلات العلاقات الشخصية، وبعضهم يطلب نصائح للتعامل مع أعراض القلق والاكتئاب. وفي حال تمكنّا من تشجيع العملاء على مشاركة تفاصيل محادثاتهم مع الروبوت داخل الجلسة العلاجية، فقد يكون أمامنا كنز من المعلومات يساعد في كشف مسببات التوتر أو أنماط الهروب من المواجهة.

على سبيل المثال، كما توضح رايت، قد يلجأ شخص يواجه مشاكل زوجية إلى الروبوت بدلاً من فتح حوار صريح مع شريك الحياة لتلبية احتياجاته أو لتفادي محادثات صعبة. مثل هذه الخلفية تساعد المعالج في تقديم دعم أعمق: كيف يبدأ المراجع محادثة آمنة مع شريكه، وما هي حدود الاعتماد على الذكاء الاصطناعي كبديل لسد الاحتياجات الانفعالية.

يضيف توم إنسل، المدير السابق لمعهد الصحة العقلية الوطني، أن الناس كثيرًا ما يتحدثون مع الروبوتات عن أمور لا يستطيعون البوح بها للآخرين خوفًا من الحكم عليهم. أفكار انتحارية مثلاً قد يتردد المراجع في الإفصاح عنها للمعالج، لكنها معلومة حاسمة للحفاظ على سلامته.

كن فضوليًا ولا تحكم

عند الاقتراب من الموضوع مع المرضى، يقترح سابا أن يكون الحديث خاليًا من الحكم. “لا نريد أن نجعل العملاء يشعرون بأننا نحاكمهم؛ حينذاك لن يرغبوا في الاستمرار معنا.” ينصح بوضع نبرة فضولية حقيقية واقتراح صيغ بسيطة وودية لفتح الحوار، مثل:
“أتعلم، الذكاء الاصطناعي في تزايد، وكثير من الناس يستخدمون أشياء مثل شات جي بي تي للدعم العاطفي. هل هذا ينطبق عليك؟ هل جربت ذلك؟”

يقرأ  لماذا يعترض ترامب على عودة نوري المالكي إلى المشهد؟— برامج تلفزيونية

ومن المفيد أيضًا أن نسأل عن الأمور التي وجدوا أنها مفيدة، حتى نفهم أفضل كيفية استعمال المراجع لهذه الأدوات، وهل يمكن أن تكمل العلاج أم لا — مثلاً لاختيار الموضوعات التي يستحسن مناقشتها في الجلسة أو كوسيلة للتنفيس اليومي. بطريقة ما، قد يتوافق العلاج والروبوتات للعمل معًا.

كما يقترح سابا وزميله ويليام ويكس سؤال المرضى عمّا إذا كانت هناك تفاعلات مع الروبوتات كانت ضارة أو غير مفيدة، وعرض مخاطر استخدام الروبوتات للدعم العاطفي. من المخاطر الخصوصية وبيانات المستخدم، إذ كثير من شركات الذكاء الاصطناعي تستخدم المحادثات — حتى الحسّاسة منها — لتدريب نماذجها. ثمة أيضًا خطر اعتبار الروبوت معالجًا بديلاً؛ فالروبوتات مصممة غالبًا للتأكيد والمجاملة، فتدعم المعتقدات والمشاعر بدلًا من تحدّيها وتغييرها، بينما العلاج يهدف إلى التغيير ومواجهة ما هو صعب.

تطبيق النصائح

تدير عالمة النفس كامي وينكلسبيخت عيادة خاصة تعمل أساسًا مع الأطفال والمراهقين في ويلمنغتون بولاية ديلاوير. فقد فكرت في إضافة أسئلة عن استعمال وسائل التواصل والذكاء الاصطناعي في استمارة القبول، وقدّرت دراسة سابا لأنها قدمت أمثلة جاهزة للأسئلة. خلال العام الماضي، ازدادت طلبات المراهقين وذويهم للمساعدة في استخدام الذكاء الاصطناعي لخيارات مثل العصف الذهني أو مهام المدرسة دون خرق قواعد الشرف، فكان لا بد من الاطلاع على التكنولوجيا لدعم العملاء. ومع هذا، بات واضحًا أن المعالجين وأهل الأطفال بحاجة لأن يكونوا أكثر وعيًا بكيفية استخدام الصغار لأجهزتهم الرقمية — سواء شبكات التواصل أو روبوتات الدردشة.

أضف تعليق