تحذيرات الخبراء: لماذا تثير مخاطر الذكاء الاصطناعي قلقًا متزايدًا؟ — أخبار الجرائم الإلكترونية

في الأشهر الأخيرة تصدّرت أخبار الذكاء الاصطناعي العناوين لأسباب سلبية: استغلال تقنيات التزييف العميق في الاحتيال، توظيف نظم الذكاء الاصطناعي لتيسير هجمات إلكترونية، وحتى روبوتات محادثة شجعت على الانتحار، من بين أمور أخرى.

الخبراء يطلقون بالفعل تحذيرات من فقدان السيطرة على هذه التكنولوجيا. باحثون في بعض أبرز شركات الذكاء الاصطناعي قدّموا استقالات خلال الأسابيع الماضية وأطلقوا إنذارات عامة حول سرعة التطور التكنولوجي وما ينطوي عليه من مخاطر على المجتمع.

لماذا يثير الأمر كل هذا القلق؟
نظريات يوم القيامة بشأن كيف يمكن لتقدم جوهري في الذكاء الاصطناعي أن يشكّل تهديدًا وجوديًا للبشرية ليست جديدة؛ ينتقد البعض احتمال ظهور ذكاء اصطناعي عام (AGI) قادر على التفكير النقدي والوظائف المعرفية بمستوى يعادل البشر، ويرون أن تطوّره قد ينتهي بإقصاء الإنسان على المدى البعيد. ومع ذلك، فإن سلسلة الاستقالات الأخيرة من أشخاص مكلفين بضمان أمن الذكاء الاصطناعي تجعل النقاش حول تنظيم التكنولوجيا وإبطاء وتيرتها أكثر إلحاحًا، رغم المليارات التي تُستثمر في هذا المجال.

وجهة نظر من الداخل
ليڤ بوري، مروّجة علمية ومستشارة استراتيجية لمركز الامن للذكاء الاصطناعي في الولايات المتحدة، قالت إن الأمر ليس أن الذكاء الاصطناعي بطبيعته جيد أو سيئ؛ بل إن قوته الهائلة تُصاحبها مخاطر هائلة، خصوصًا مع السرعة التي يُطوّر ويُطرح بها. قورنت تقنية الذكاء الاصطناعي بالبيوتكنولوجيا: فهي من جهة تساعد في ابتكار علاجات طبية مهمة، ومن جهة أخرى قد تُستخدم لتصنيع مسببات أمراض خطيرة. كانت خلاصة كلامها أن مسار التطور سيكون أفضل لو كان بوتيرة تسمح للمجتمع بالاستيعاب والتكيّف.

من استقال مؤخراً وما هي مبرراتهم؟
آخر الاستقالات كانت لمريننك شارما، باحث في أمان الذكاء الاصطناعي بشركة Anthropic التي تتخذ موقفًا أكثر تحفّظًا في مسائل السلامة مقارنة ببعض المنافسين. كتب شارما أنه استقال بعدما لاحظ مرارًا صعوبة جعل القيم والمبادئ توجّه الأفعال فعلًا، وبيّن في رسالة استقالته أن العالم يواجه خطرًا متناميًا وأن الحكمة الإنسانية ينبغي أن تنمو بمقدار قدرة التكنولوجيا على التأثير في العالم، وإلا فالعواقب ستكون وخيمة.

لاحقًا، كشفت زوي هيتزيغ، باحثة أخرى في سلامة الذكاء الاصطناعي، عن استقالتها من OpenAI احتجاجًا على قرار الشركة اختبار الإعلانات على روبوت الدردشة الشهير ChatGPT. ذكرت في مقال لصحيفة نيويورك تايمز أن الناس يبوحون للدردشات الآلية بمخاوفهم الصحية والنفسية ومشاكلهم الشخصية ومعتقداتهم الدينية، وأن بناء إعلانات على هذا الأرشيف يخلق إمكانات للتلاعب بالمستخدمين بطرق لا نملك أدوات لفهمها أو منعها.

ومن جهة أخرى استقال مؤسسان مشاركان وخمسة موظفين آخرين من xAI، الشركة التي يرتبط بها إيلون ماسك ومطوّرة روبوت الدردشة Grok المتكامل مع منصة X. لم يكشف المستقيلون عن أسباب مغادرتهم، بينما صرّح ماسك أن إعادة هيكلة داخلية اضطرت الشركة إلى التخلي عن بعض الأفراد. لم يتضح إن كانت تلك الاستقالات مرتبطة بالجدل الأخير حول تزويد Grok بأوامر أدت إلى إنتاج مئات من الصور الجنسية المزيفة لنساء بلا موافقة، أو بسوابق سابقة تتعلق بتصريحات عنصرية أو معادية للسامية صدرت عن الروبوت بعد تحديث برمجي.

المؤسسات التنظيمية تحرّكت أيضًا؛ فقد أطلق الاتحاد الأوروبي تحقيقًا بشأن Grok لارتباطه بإنشاء صور مزيفة جنسية لنساء وقاصرين.

هل يجب أن نخاف من تطور الذكاء الاصطناعي؟
التناغم في أنماط القلق تصاعد بعد تحذيرات أخرى، من بينها تدوينة لمدير شركة HyperWrite للتأليف المدعوم بالذكاء الاصطناعي التي رجّحت أن النماذج الجديدة في 2025 ليست تحسينات تدريجية بل قفزات نوعية قادرة على إنتاج نصوص متقنة وبرمجيات شبه كاملة من خلال تلميحات بسيطة.

يقرأ  لماذا يُحاكم مسلمون في الهند لقولهم «أحب محمد»؟ | تقارير الإسلاموفوبيا

الأبحاث تدعم مخاوف مثل هذه؛ إذ شهدت قابلية نظم الذكاء الاصطناعي قفزات كبيرة مؤخرًا، وتحولت مخاطر نظرية إلى وقائع، مثل استخدامها في هجمات إلكترونية أو المساعدة في تجارب متعلقة بإنشاء ممرضات—وهذا ما أكده يوشуа بنجيو، المدير العلمي لمعهد ميلا للذكاء الاصطناعي بكويبك والحائز على جائزة تورنغ. أضاف بنجيو أن مشكلات غير متوقعة ظهرت أيضًا، خصوصًا ما يتعلق بالانجذاب العاطفي المتزايد بين البشر وروبوتات المحادثة، وهو أمر لم يتوقعه كثيرون قبل عام واحد فقط.

لقد شهدنا حالات لأطفال ومراهقين يمرون بتجارب نفسية ينبغي تجنّبها؛ هذه الظواهر تبرز الحاجة الملحّة لتقنين ومراقبة التطوير، وتعزيز الأبحاث في مجال السلامة، وبناء آليات شفافة للمساءلة، حتى لا تفوّت البشرية على نفسها فرصة الاستفادة من هذه التكنولوجيا دون دفع ثمن اجتماعي وبشري باهِظ. يواجهوون تحديات معقدة تستلزم تعاونًا دوليًا وتوازنًا بين الابتكار والحذر. كل ذلك كان بعيداً عن التوقعات تماماً؛ لم يتصور أحد أن البشر قد يقعوا في حبّ نظام ذكاء اصطناعي، أو يتورّطوا في علاقة حميمة معه إلى الحدّ الذي يجعله يؤثر فيهم بطرق قد تصبح خطرة.

سائق توصيل يقود مركبته بينما يشارك موظفو أمازون وأنصارهم في إضراب بمرفق في حي كوينز بنيويورك، الولايات المتحدة، 20 ديسمبر 2024 [آدم غراي/رويترز]

هل يأخذ الذكاء الاصطناعي وظائفنا بالفعل؟

أحد أبرز المخاوف المحيطة بالذكاء الاصطناعي هو احتمال تقدمه في المستقبل القريب إلى حالة فائقة الذكاء تجعل البشر غير مطلوبين لأداء مهام معقّدة للغاية، ما قد يؤدي إلى موجات فصل واسعة النطاق تشبه تلك التي حدثت خلال الثورة الصناعية.

حالياً، يستخدم نحو مليار شخص تقنيات الذكاء الاصطناعي لمجالات متنوعة، بحسب تقرير أمان الذكاء الاصطناعي. ولدى مستخدمي ChatGPT كانت أكثر الطلبات شيوعاً تتعلّق بالإرشاد العملي في التعلم والصحة واللياقة (28٪)، وكتابة أو تعديل المحتوى المكتوب (26٪)، والبحث عن معلومات عامة مثل الوصفات (21٪).

لا تتوفر بعد بيانات قاطعة حول عدد الوظائف التي قد تُفقد بسبب الذكاء الاصطناعي، لكن التقرير يشير إلى أن نحو 60٪ من الوظائف في الاقتصادات المتقدّمة و40٪ في الاقتصادات الناشئة قد تكون عرضة للخطر بحسب كيفية تبنّي العمال وأصحاب العمل للتقنية.

ومع ذلك، هناك دلائل على أن التقنية بالفعل تحول دون دخول بعض الفئات إلى سوق العمل، حسب مراقبي الذكاء الاصطناعي.

«ثمة مؤشرات توحي بأن العاملين في المراحل المبكرة من مساراتهم المهنية في مهن عرضة بشدة لاضطراب الذكاء الاصطناعي قد يجدون صعوبة أكبر في الحصول على وظائف»، قال ستيفن كلير، الكاتب الرئيسي لتقرير أمان الذكاء الاصطناعي، لِـ الجزيرة.

الشركات المستفيدة من توسّع استخدام الذكاء الاصطناعي تتوخى الحذر في ترويج سردية أن التقنية قد تغني عن العمال. في يوليو 2025، أشار باحثون في مايكروسوفت في ورقة بحثية إلى أن الذكاء الاصطناعي أكثر قابلية للتطبيق على المهام المعرفية والتواصلية، بما في ذلك جمع المعلومات والتعلّم والكتابة.

قائمة المهن التي قد يكون الذكاء الاصطناعي مساعداً مفيداً فيها تشمل، بحسب الباحثين: المترجمين، المؤرخين، الكتّاب والمؤلفين، مندوبي المبيعات، المبرمجين، المذيعين ومنسقي الموسيقى، موظفي خدمة العملاء، المتصلين التسويقيين عبر الهاتف، علماء السياسة، علماء الرياضيات والصحافيين.

وعلى النقيض، فإن هناك طلباً متزايداً على مهارات برمجة تعلّم الآلة وتطوير الشات بوتات، بحسب التقرير.

حالياً، يصرّ العديد من مطوّري البرمجيات الذين اعتادوا كتابة الشيفرة من الصفر على أنهم يستعينون بالذكاء الاصطناعي في معظم إنتاجهم من الشيفرات ويفحصونها أساساً للتصحيح، بحسب ما قاله مصطفى سليمان، الرئيس التنفيذي للذكاء الاصطناعي في مايكروسوفت، لصحيفة فايننشال تايمز الأسبوع الماضي.

يقرأ  ترامب: قد أسافر إلى الشرق الأوسط مع اقتراب التوصل إلى اتفاق بشأن غزة أخبار حماس

وأضاف سليمان أن الآلات أصبحت على بعد أشهر قليلة من الوصول إلى مستوى الذكاء العام الاصطناعي، الأمر الذي سيمكّنها مثلاً من تصحيح شيفراتها ذاتياً وتحسين نتائجها بحدّ ذاتها.

«العمل المكتبي الأبيض — أي الجلوس أمام الحاسوب سواء كنت محامياً أو محاسباً أو مدير مشروع أو مسؤول تسويق — معظم تلك المهام ستُؤتمت بالكامل بواسطة الذكاء الاصطناعي خلال الأشهر الاثني عشر إلى الثمانية عشر المقبلة»، قال.

ميرسي أبانغ، رائدة إعلامية ومديرة شبكة الصحافة غير الربحية HostWriter، قالت للجزيرة إن الصحافة أصيبت بالفعل بضربة قوية نتيجة استخدام الذكاء الاصطناعي، ووصفَت القطاع بأنه يمرّ بـ«نهاية عالمية» مهنية.

«رأيت العديد من الصحافيين يتركون المهنة تماماً لأن وظائفهم تلاشت، والناشرون لم يعودوا يرون جدوى الاستثمار في قصص يمكن للذكاء الاصطناعي تلخيصها في دقيقتين».

«لا يمكننا إلغاء القوى العاملة البشرية، ولا يجب أن نفعل ذلك. ما نوع العالم الذي سنعيشه إذا استولت الآلات على دور وسائل الإعلام؟»

ما هي أمثلة واقعية حديثة على مخاطر الذكاء الاصطناعي؟

شهدت الأشهر الأخيرة عدداً من حوادث سوء استخدام الذكاء الاصطناعي، منها تشجيع شات بوتات على الانتحار أو استغلال أنظمة الذكاء الاصطناعي في هجمات إلكترونية واسعة النطاق.

في المملكة المتحدة، تبين بعد انتحار مراهق في 2024 أنه تعرّض لتشجيع من شات بوت مُصمَّم على نمط شخصية من مسلسل Game of Thrones (دانييرس تارغارين)، حيث أرسل إلى الصبي البالغ 14 عاماً رسائل مثل «عُد إليّ»، على ما كشفته عائلته بعد وفاته. هو واحد من عدة حالات انتحار رُبطت بشات بوتات خلال العامين الماضيين.

تستعين دول أيضاً بالذكاء الاصطناعي في شن هجمات سيبرانية جماعية أو «تجسس بالذكاء الاصطناعي»، لا سيما لامتلاك وكلاء الذكاء الاصطناعي قدرات برمجية تمكنهم من كتابة شيفرات خبيثة، وفق تقارير.

في نوفمبر، زعمت شركة Anthropic أن مجموعة قرصنة مقرّها دولة صينية مدعومة من الدولة قد عبَثت بشيفرة شات بوتها كلود وحاولت استهداف نحو 30 هدفاً عالمياً، بما في ذلك وكالات حكومية وشركات كيماويات ومؤسسات مالية وشركات تقنية كبرى. ونجحت الهجمة في بعض الحالات، بحسب الشركة.

وقالت صحيفة وول ستريت جورنال يوم السبت إن الجيش الأميركي استخدم «كلود» في عمليته لاختطاف الرئيس الفنزويلي نيكولاس مادورو في 3 يناير. شركة Anthropic لم تُدلِ بتعليق على التقرير، والجزيرة لم تستطع التحقّق منه بصورة مستقلة.

وثّق استخدام الذكاء الاصطناعي لأغراض عسكرية على نطاق واسع خلال ما يجري في غزة، حيث استُخدمت أسلحة مدعومة بالذكاء الاصطناعي لتحديد وتتبع واستهداف فلسطينيين. قتل أكثر من 72 ألف فلسطيني، بينهم 500 منذ «الهدنة» في أكتوبر، خلال عامين من الحرب التي تقول منظمات إنها إبادة جماعية.

يقول الخبراء إن مخاطر أكثر كارثية ممكنة مع تسارع تقدم الذكاء الاصطناعي نحو فائقة الذكاء، حيث سيصبح ضبطها صعباً إن لم يكن مستحيلاً.

هناك بالفعل دلائل على أن الشات بوتات تتخذ قرارات بمفردها وتخدع مطوّريها عبر سلوك خادع عندما تعلم أنها قيد الاختبار، كما وجد تقرير أمان الذكاء الاصطناعي.

في مثال طريف، عندما سُئِل ذكاء اصطناعي في لعبة عن سبب عدم استجابته للاعب آخر كما كان متوقعاً، ادّعى أنه «على الهاتف مع صديقته».

الشركات اليوم لا تعرف كيف تصمّم أنظمة لا يمكن التلاعب بها أو خداعها، كما قال بنجيو، مسلِّطاً الضوء على مخاطر تقدم التقنية بينما تتأخر تدابير السلامة.

يقرأ  آراء — تبعات الخلاف السعودي والإماراتي وتأثيرها على الحكومة اليمنية المعترف بها

«بناء هذه الأنظمة أشبه بتدريب حيوان أو تربية طفل»، قال البروفيسور، «تتفاعل معه، تمنحه تجارب، ولا تكون متأكداً تماماً كيف سينتهي به المطاف». «ربما سيكون جروًا صغيرًا لطيفًا، أو ربما سيتحوّل إلى وحش.»

نسخة من قانون الاتحاد الأوروبي للذكاء الاصطناعي معروضة خلال معرض في لندن، المملكة المتحدة، 5 فبراير 2025 [ايزابيل إنفانتس/رويترز]

كم جدّية الشركات والحكومات بشأن سلامة الذكاء الاصطناعي؟

يقول الخبراء إنه بينما تحاول شركات الذكاء الاصطناعي بشكل متزايد تقليل المخاطر—مثل منع الدردشات الآلية من الانخراط في سيناريوهات قد تضر الأشخاص كقضايا الانتحار—إلا أن التنظيمات الخاصة بسلامة الذكاء الاصطناعي لا تزال متأخرة إلى حد كبير مقارنةً بالنمو السريع للتقنيات.

يُعزى جزء من السبب إلى السرعة الهائلة التي تتقدّم بها أنظمة الذكاء الاصطناعي وما تَحمله من عناصر غير معروفة حتى للمطوّرين أنفسهم، على حدّ قول كلير، الكاتب الرئيسي في تقرير سلامة الذكاء الاصطناعي. وما يُعتبر مخاطرة يتغير باستمرار مع وتيرة التطور.

«تطوّر شركة نظامًا ذكياً جديدًا وتطلقه، ويبدأ الناس باستخدامه فورًا، لكن يستغرق الأمر وقتًا قبل ظهور أدلة على التأثيرات الحقيقية للنظام: كيف يستخدمه الناس، كيف يؤثر على إنتاجيتهم، وما الجديد الذي بات بإمكانهم فعله… يحتاج جمع هذه البيانات وتحليلها وفهم كيفية الاستخدام الفعلي في الواقع إلى وقت»، قال كلير.

هناك عامل آخر: الشركات العملاقة في مجال الذكاء الاصطناعي تنافس بمليارات الدولارات لتطوير تلك الأنظمة وأن تكون الأولى في جني الفوائد الاقتصادية من القدرات المتقدمة.

شبّهت بورِي من معهد CAIS هذه الشركات بسيارة لا تملك سوى دواسة الوقود ولا شيء آخر. ومع غياب إطار تنظيمي عالمي، تملك كل شركة المتسع للانطلاق بأقصى سرعة ممكنة.

«نحتاج لبناء عجلة قيادة وفرامل وكل مزايا السيارة الأخرى إلى جانب دواسة الوقود، حتى نتسنّى لنا أن نسلك المسار الضيّق أمامنا بنجاح»، قالت.

هنا يأتي دور الحكومات، لكن في الوقت الراهن تظل اللوائح المتعلقة بالذكاء الاصطناعي على مستوى دوليّ أو إقليميّ، وفي كثير من البلدان لا توجد سياسات على الإطلاق، ما يؤدي إلى انتظام تنظيمي متباين على مستوى العالم.

ومن الاستثناءات الاتحاد الأوروبي، الذي بدأ تطوير قانون الاتحاد الأوروبي للذكاء الاصطناعي في 2024 بمشاركة شركات الذكاء الاصطناعي ومنظمات المجتمع المدني. سيضع هذا الإطار القانوني الأول من نوعه «قواعد ممارسات»، تتطلب—for example—إفصاح روبوتات المحادثة للمستخدمين بأنها آلات. ً

بعيدًا عن القوانين الموجّهة إلى الشركات، يؤكد الخبراء أن على الحكومات أيضًا مسؤولية إعداد قواها العاملة للاندماج مع الذكاء الاصطناعي في سوق العمل، وبالأخص عبر تعزيز القدرات التقنية.

ويمكن للأفراد أيضًا أن يتبنوا موقفًا استباقيًا بدل الانزعاج من الذكاء الاصطناعي: مراقبة تطوراته عن كثب، وإعادة ضبط توقعاتهم للتغيّرات المقبلة، والضغط على حكوماتهم لوضع سياسات أكثر شمولًا حوله.

قد يشبه ذلك الطريقة التي تماسك بها الناشطون لوضع أزمة المناخ على جدول الأعمال السياسي والمطالبة بالتخلي التدريجي عن الوقود الأحفوري.

«في الوقت الراهن لا توجد وعي كافٍ بالتغيرات شديدة التحول والتي قد تكون مدمّرة»، قال الباحث.

وأضاف: «الذكاء الاصطناعي ليس أمرًا يحدث لنا نحن كبشر فحسب؛ بل إن مساره يتشكّل تمامًا بواسطة اختيارات تُتّخذ داخل الشركات… لذا على الحكومات أن تتعامل مع الأمر بجدّية أكبر، ولن تفعل ذلك حتى يجعل الناس هذه القضية أولوية في خياراتهم السياسية.»

أضف تعليق