روبوت الدردشة «العمة» يساند الناجيات من العنف بعد مأساة عائلية أنشأت روبوت محادثة باسم «العمة» لمساعدة النساء المعنفات بعد مأساة عائلية

ميغا موهان — مراسلة شؤون النوع والهوية، خدمة بي بي سي العالمية

جرِت — إصرار

كانت جريمة قتل بشعة داخل عائلتها هي الشرارة التي دفعت ليونورا تيما، من جنوب إفريقيا، إلى إنشاء منصة رقمية تتيح للناس، لا سيما النساء، التكلّم عن العنف وتوثيقه ومتابعته.

قُتلت قريبتها وهي في التاسعة عشرة من عمرها وكانت حاملاً في الشهر التاسع، إذ وُجدت جثتها ملقاة على جانب طريق سريع قرب كيب تاون عام 2020. القاتل لم يُقبض عليه، وما أثار استياء ليونورا هو أن وفاة امرأة بهذه الوحشية قُبِلت بصمت كأمر مألوف في المجتمع الجنوب أفريقي الى حد أن وسائل الإعلام لم تعتبرها خبراً ذا قيمة.

تعمل ليونورا في قطاع التنمية، ولقد شهدت أشكالاً متعددة من العنف، لكنها تقول إن الصدمة كانت في طبيعة التبرير واللامبالاة المجتمعية التي أحاطت بالقضية. هذا الشعور بالقبول الصامت لموت امرأة أصبح المحفّز لتصميم تطبيقها «حقوق الجنس في التكنولوجيا — جرِت»، الذي يتضمّن مساعداً رقمياً باسم «زوزي».

الجهاز أُنتج بمشاركة مجتمعات أفريقية، وهو أحد أوائل أدوات الذكاء الاصطناعي المجانية التي طورها مبدعون أفارقة لمعالجة العنف المبني على النوع الاجتماعي. الهدف ليس بديلاً عن الدعم الإنساني بل توفير مساعدة فورية، وجمع أدلة يمكن أن تُستخدم لاحقاً في قضايا قانونية ضد المعتدين.

قامت ليونورا وفريقها الصغيرة بزيارات ميدانية إلى الأحياء الشعبية حول منزلها في كيب تاون، وحاوروا أكثر من 800 شخص عن كيفية استخدامهم للهواتف ووسائل التواصل الاجتماعي للتحدّث عن العنف، وعن العوائق التي تمنعهم من طلب المساعدة. اكتشفوا أن الناس راغبون في الكلام لكنهم «لا يثقون بالطرق التقليدية مثل الشرطة»، وأن بعض النساء ينشرن تعرضهن على فيسبوك ويضعن علامات على أسماء المعتدين، فيستدعين بدلاً من الدعم دعاوى تشهير.

يقرأ  خسائر الكوارث الطبيعية المؤمن عليها في ألمانيا أدنى من المتوسط خلال النصف الأول

بدعم مالي وفني من مؤسسات مثل موزيلا، ومؤسسة غيتس، ومؤسسة باتريك مكغوفن، بدأ فريق جرِت تطوير تطبيق جوال يساعد المستخدمين على تسجيل الحوادث والإبلاغ عنها والحصول على استجابة فورية أثناء وقوعها. التطبيق مجاني للتحميل لكن يحتاج إلى بيانات هاتفية. تقول ليونورا إن قاعدة المستخدمين وصلت إلى حوالي 13,000 مستخدِم، وأنهم تلقوا نحو 10,000 طلب مساعدة في شهر سبتمبر وحده.

يبنى تطبيق جرِت حول ثلاث ميزات رئيسية:

– زر مساعدة واضح على الشاشة الرئيسية: عند الضغط يبدأ التسجيل الصوتي تلقائياً لمدة 20 ثانية لالتقاط ما يدور حول المستخدم، ويُرسَل إنذار إلى مركز اتصال استجابة سريعة خاص حيث يتواصل مشغّل مدرّب مع الطرف الذي طلب المساعدة. إذا كانت الحالة خطرة يُرسِل الفريق مسعفين أو يتواصل مع منظمة محلية لتقديم العون.

– الخزنة الرقمية: مساحة آمنة ومشفّرة لحفظ الأدلة — صور، لقطات شاشة، تسجيلات صوتية — مع تواريخ، كي لا تضيع الأدلة أو تُحذف أو تُعبث بها. هذا مهم لأن كثيرات يحتفظن بأدلة على هواتف قد تُؤخذ منهن أو تُمحى.

– «زوزي»؛ دردشة ذكية مدعومة بالذكاء الاصطناعي: مساعد صمّم بعد استشارات ميدانية مع النساء، اتفقن على أن شخصية «زوزي» يجب أن تكون «شبيهة بالعمة»؛ دافئة، موثوقة، ومقبولة ليفصحن أمامها دون خوف من الحكم. تزود زوزي المستفيدات بالإرشاد، وتوجّههن إلى شبكات دعم محلية، وتقدّم معلومات عملية.

حين سُئلت ليونورا عما إذا استُغل زر المساعدة، اعترفت بحدوث تجارب فضولية — محاولات اختبار — لكنها لم تشهد إساءة منظورة للنظام. وتقول: «الناس حذِرون؛ إنهم يختبروننا كما نختبر التقنية».

خلال مرحلة الاختبار استخدمت زوزي أيضاً من قبل رجال — بعضهم يبحث عن مساعدة لإدارة غضبه الذي يوجّهه لشريكاتهن، وآخرون ضحايا عنف استخدموا المنصة للتكلّم عن تجاربهم. كما تشرح ليونورا: «الناس يجدون في التفاعل مع الذكاء الاصطناعي مساحة لا يشعرون فيها بالمحاكمة، لأنه ليس إنساناً».

يقرأ  حماس تؤكّد وفاة محمد سنوار بعد مرور ثلاثة أشهر على إعلان جيش الدفاع الإسرائيلي

لكن التحذيرات موجودة: تفيد تقارير هيئة الأمم المتحدة للمرأة أن جنوب أفريقيا تعاني من مستويات مرتفعة جداً من العنف القائم على النوع، ومعدل قتل النساء فيها أعلى بخمس مرات من المتوسط العالمي؛ ووفقاً لشرطة جنوب أفريقيا كان متوسط القتلات اليومية سبع نساء بين 2015 و2020. لذلك يرى خبراء أن التكنولوجيا قد تساعد لكن بحذر.

ليزا فيتين، باحثة متخصّصة في العنف القائم على النوع، تحذّر من استخدام الذكاء الاصطناعي في رعاية الصدمات بدون رقابة: «أنا أسميها نماذج لغوية كبرى لأنها تقوم بتحليل لغوي وتنبؤ، لا أكثر». تذكر أمثلة على منصات أبلغت نساء بنصائح خاطئة قانونياً. وتؤكد أن الدردشات الآلية لا تغني عن الاستشارات البشرية؛ الناجيات يحتجن إلى تعاطف وفهم وعلاقة ثقة لا تستطيع الآلة إقامتها بمفردها.

حصل مشروع جرِت على اهتمام دولي؛ في أكتوبر عرضت ليونورا وفريقها التطبيق في مؤتمر السياسة الخارجية النسوية الذي استضافته الحكومة الفرنسية في باريس، حيث وقّعت 31 دولة تعهداً بوضع مكافحة العنف القائم على النوع على رأس أولوياتها السياسية. ليريك طومسون، مؤسسة التعاونية المعنية بالسياسات الخارجية النسوية، تشير إلى أن النقاش حول الذكاء الاصطناعي يزدهر، لكن حين يُطرح موضوع التحيزات العنصرية والجندرية يتلاشى الاهتمام بسرعة، و«يُنقل الحوار إلى الممرات حيث لا توجد نساء لتذكيرهم بالمخاطر».

هيذر هيرلبورت، زميلة مشاركة متخصصة في الذكاء الاصطناعي، ترى أن الذكاء الاصطناعي «يمكن أن يساعد في كشف ومعالجة التمييز والعنف القائم على النوع، أو يمكنه ترسيخ كراهية النساء وعدم المساواة» — الوجهة التي نسلكها تعتمد على تصميمنا وقراراتنا.

ليونورا تؤكد أن نجاح أي تقنية في مواجهة العنف الجنسي والاجتماعي لا يتوقف على البرمجة وحدها، بل على من يشارك في تصميمها. تقرير المنتدى الاقتصادي العالمي لعام 2018 ذكر أن نسبة النساء بين العاملين في مجال الذكاء الاصطناعي عالمياً كانت 22% فقط، إحصائية لا تزال تُستشهد بها كثيراً. «الذكاء الاصطناعي كما نعرفه بُني على بيانات تاريخية تُمجّد أصوات الرجال، وخصوصاً الرجال البيض»، تقول ليونورا، «والحل ليس فقط في زيادة عدد المبدِعات، بل في تمثيل نساء ملونات، ومن الجنوب العالمي، ومن خلفيات اجتماعية واقتصادية متواضعة».

يقرأ  الولايات المتحدة والصين تفرضان رسوم موانئ جديدة — تهديد بمزيد من الاضطراب التجاريأخبار الأعمال والاقتصاد

فقط حين تمثّل التكنولوجيا واقع مستخدميها بشكل حقيقي يمكن أن تبدأ في خدمة أولئك الذين فُصِلت خدماتهم عن النظام لأعوام طويلة. ان هذا ما تسعى إليه ليونورا وفريقها عبر جرِت — جمع الأدلة، توفير مأمن فوري، وربما الأكثر أهمية، منح الناس شعوراً ببعض السلطة على حياتهم وسط ظرف يستنزفهم. مع ذلك يبقى التحدي قائماً في تحقيق تكامل بين أدوات رقمية وآليات دعم إنسانية وآمنة وموثوقة.

أضف تعليق