قضية أنثروبيك ضد البنتاغون قد تفتح الباب أمام تنظيم الذكاء الاصطناعي — أخبار الأعمال والاقتصاد

سان فرانسيسكو، الولايات المتحدة — قضت قاضية في كاليفورنيا بأمر قضائي يمهّد الطريق أمام احتمال فوز شركة أنثروبك في سعيها لتنظيم الأسلحة المدعومة بالذكاء الاصطناعي، ما يمثّل انتكاسة لإدارة الرئيس دونالد ترامب ويقرب الشركة خطوة من تجنّب خسارة مليارات الدولارات من عقود حكومية.

كانت الادارة الأميركية قد صنّفت أنثروبك على أنها «خطر على سلسلة التزويد» بسبب موقفها الداعي إلى تشدّد الرقابة، وهو تصنيف قد يحرم الشركة من بعض عقود وزارة الدفاع.

قالت قاضية مقاطعة شمال كاليفورنيا ريتا لين يوم الثلاثاء إن وزارة الدفاع قد تكون بصدد معاقبة أنثروبك بشكل غير قانوني لمجرّد محاولتها منع استخدام نماذجها من الذكاء الاصطناعي في أسلحة تعمل دون إشراف بشري أو في برامج المراقبة الجماعية.

«يبدو أنه محاولة لتقويض أنثروبك»، قالت القاضية لين.

يرى محلّلون قانونيون أن هذا القرار قد يمهّد الطريق لمنح أنثروبك أمرًا احترازيًا مؤقتًا لإلغاء تصنيفها كخطر على سلسلة التزويد من قبل وزارة الدفاع.

وقال تشارلي بولوك، زميل أبحاث أقدم في معهد القانون والذكاء الاصطناعي في بوسطن، إن «الأهداف المعلنة ليست مدعومة بالكامل من قبل وزراة الحرب» — وهو تعليق يبرز نقاشًا أعمق حول مبررات التصنيف.

هذه هي المرة الأولى التي تُصنَّف فيها شركة أميركية بهذا الشكل، وما يعنيه ذلك عمليًا هو إلغاء عقود حكومية وعقود لدى متعاقدين فرعيين مع الحكومة.

في 17 مارس، أخبرت وزارة الدفاع المحكمة أن موقف أنثروبك القائل بعدم السماح باستخدام منتجاتها في أسلحة يتحكّم فيها الذكاء الاصطناعي دون إشراف بشري أو في برامج المراقبة الداخلية سيقوّض «قدرة الشركة على ممارسة عملياتها القانونية الخاصة».

قضية أنثروبك لإلغاء هذا التصنيف تتناول، بشكل أوسع، حدود قدرات الذكاء الاصطناعي وكيف يمكن أن تشكّل الحياة وما إذا كان ينبغي تنظيمها.

يصف روبرت تريجر، المشترِك في إدارة مبادرة حوكمة الذكاء الاصطناعي في جامعة أكسفورد، هذه القضية بأنها «لحظة للتفكير في نوع العلاقة التي نرغبها بين الحكومة والشركات وما هي الحقوق التي يمتلكها المواطنون».

وأشارت أليسون تايلور، أستاذة مشاركة في إدارة الأعمال والمجتمع بمدرسة ستيرن للأعمال في جامعة نيويورك، إلى أن «التكنولوجيا في الولايات المتحدة تتقدّم بسرعة كبيرة بحيث يصبح مفهوم الإشراف البشري أكثر صعوبة. الناس قلقون من فقدان الوظائف بسبب الذكاء الاصطناعي ومن مراكز البيانات والمراقبة والأسلحة، وهذا أدى إلى تحول في الرأي العام نحو مزيد من الحذر تجاه الذكاء الاصطناعي».

يقرأ  ترامب يقوّض حلفاءه الرئيسيين في المملكة المتحدة وفرنسا قبيل زيارته إلى دافوس أخبار حرب التجارة

خلال الأسبوعين الماضيين، قدّمت مجموعة من شركات التكنولوجيا ومراكز التفكير والهيئات القانونية مذكرات دعم لصالح موقف أنثروبك، تطالب بضرورات الإشراف والتنظيم على استخدام الذكاء الاصطناعي في الأسلحة والمراقبة الجماعية. شملت هذه الدعم شركات مثل مايكروسوفت وموظفين من شركات منافسة لأنثروبك مثل أوبن إيه آي وغوغل، إضافة إلى جماعات أخلاقية دينية ومفكّرين آخرين.

مهندسون من أوبن إيه آي وغوغل ديب مايند، الذين قدّموا مذكراتهم بصفتهم الشخصية، وصفوا القضية بأنها «ذات أهمية زلزالية لصناعتنا»، مؤكدين أن التنظيم ضروري لأن «سلسلة تفكير نماذج الذكاء الاصطناعي غالبًا ما تكون خفية عن مشغّليها، ودوائر عملها الداخلية غامضة حتى أمام مطوّريها. والقرارات التي تتخذها في سياقات قاتلة لا رجعة فيها».

في ظل هذه المخاوف، قال تايلور من نيويورك: «أنثروبك تراهن — ربما بمخاطرة — أن ترويجها لشركة ملتزمة بأخلاقيات الذكاء الاصطناعي سيمنحها نفوذاً في تشكيل أي تنظيم محتمل عندما يأتي».

الهلوسات ومشكلات أخرى

عملت أنثروبك على عقود مع البنتاغون على نطاق واسع، وتم دمج نماذجها من نوع كلود جوف في مشروع بالانتير مايفن الذي يساعد في تحليل البيانات واختيار الأهداف ومهام مشابهة — وفق تقارير، بما في ذلك في سياق الحرب بين الولايات المتحدة وإسرائيل ضد إيران.

مع أن الأسلحة المدعومة بالذكاء الاصطناعي لا تُشغّل حالياً دون إشراف بشري، فقد طالبت أنثروبك باستمرار وجود إشراف بشري في عقدها مع وزارة الدفاع لأنها ترى أن نماذج الذكاء الاصطناعي قد تُصاب بالهلوسة وغير موثوقة تمامًا بعد. وبالمثل، فإن الضرر المحتمل الناجم عن استخدامها في أسلحة قد يكون هائلاً.

وجدت ماري كومينغز، أستاذة هندسة مدنية بجامعة جورج ميسون ومخرجة مركز الاستقلالية والروبوتات هناك، أن نصف الحوادث التي وقعت للسيارات ذاتية القيادة في سان فرانسيسكو سببتها فرملة وهمية ناجمة عن اعتقاد السيارة بوجود جسم أمامها، مما أدى إلى اصطدام السيارة التي تسير خلفها بها. «نسمي هذا الفرملة الوهمية وهي ناتجة عن الهلوسة»، قالت لموقع الجزيرة.

وفي ورقة نشرتها في فبراير، حذّرت من أن «إدماج الذكاء الاصطناعي في الأسلحة سيواجه مشكلات موثوقية مشابهة لتلك التي تواجه السيارات ذاتية القيادة، بما في ذلك الهلوسات».

تقول آنّيكا شوني، أستاذة مساعدة تدرس تأثير الذكاء الاصطناعي على نظم الصحة بجامعة نورث إيستِرن، إن «الهلوسة ليست المشكلة الوحيدة. نماذج من هذا النوع قد تمتلك مسارات عمل مختلفة، وانحيازات في البيانات أو انحيازات نموذجية. ولا نعرف بعد مدى أمانها من التلاعب الخارجي. هناك الكثير من العناصر المجهولة ولم نتفق بعد على ما نعتبره آمناً وما لا نعتبره كذلك».

يقرأ  سباقات الجائزة الكبرى في البحرين والسعودية تُلغى على خلفية الحرب في الشرق الأوسط

ونظراً إلى أن نماذج الذكاء الاصطناعي، بما في ذلك كلود جوف، لم تُصنع من قبل الجيش، فمن الضروري اختبار مدى موثوقيتها أثناء دمجها في أنظمة عسكرية، بحسب ألوك ميهتا، مدير مركز وادهواني للذكاء الاصطناعي في مركز الدراسات الاستراتيجية والدولية بواشنطن.

«التقييمات ومعايير الاختبار قد تتخلّف. النماذج تُشبِع أنظمة الاختبار الموجودة لدينا»، قال ميهتا.

ويبدي آخرون أن المسبب الأساسي للأخطاء ليس التكنولوجيا بحد ذاتها بقدر طريقة استخدامها.

يستذكر أندرو ردي، أستاذ مشارك للبحوث في كلية غولدمان للسياسة العامة بجامعة كاليفورنيا بيركلي ومؤسس مختبر بيركلي للمخاطر والأمن، أنه في أوائل العقد الحالي كان ثَمّة أمل بأن هذه الأدوات ستقود إلى خفض الوفيات المدنية. «لكن ذلك لم يحدث فعلاً لأن النتيجة تعتمد على البيانات التي تُزوَّد بها». «التحدّي ليس في ذكاء النظام بحدّ ذاته، بل في تحديد ما إذا كان الهدف مشروعاً»، هكذا قال عن الطريقة التي يختار بها الأفراد العسكريون الأهداف من بين نطاق تفرضه الأدوات.

في شأن المراقبة الشاملة داخل البلاد، وعلى الرغم من أن الأمر غير واضح فيما إذا كان البنتاغون يوظف الذكاء الاصطناعي حالياً في هذا المجال، فقد أبرز باحثون من أوبن إيه آي وجوجل مخاوفهم في مرافعاتهم أمام المحاكم. هم يشيرون إلى أن ربط أكثر من سبعين مليون كاميرا وسجلات معاملات بطاقات الائتمان وغيرها من بيانات كهذه قد يؤدي إلى مراقبة كامل السكان الأمركيّين. «حتى مجرد الإدراك بوجود مثل هذه القدرة يخلق تأثيراً رادعاً على المشاركة الديمقراطية»، كما يقولون.

انتصار العلاقات العامة

حتى قبل هذه القضية القضائية وفي ظل تصاعد الاستياء العام، كانت أنثروبيك تُعتبر أكثر قرباً من البنتاغون مقارنةً بالعديد من منافسيها، وهي علاقة أفادت الطرفين. يقول ميهتا من مركز الدراسات الاستراتيجية والدولية إن «البنتاغون يعتقد أن أنثروبيك تملك أفضل منتج للاستخدام العسكري، لذا يمارس ضغوطاً على الشركة للاستمرار في التعاون». أما من جهة أنثروبيك فـ«الواقع الاقتصادي صعب للغاية لصناعة الذكاء الاصطناعي. لذا ثمة حاجة حقيقية إلى نشاط قوي في القطاع العام بعقود قيمتها مليارات الدولارات».

يقرأ  إنفيديا تنشئ حواسيب فائقة للذكاء الاصطناعي لوزارة الطاقة الأمريكية

سرعان ما حلت أوبن إيه آي مكان أنثروبيك للعمل مع البنتاغون بعد إنهاء عقد الأخيرة، ومع ذلك يبدو أن أنثروبيك حققت «انتصاراً في العلاقات العامة إن لم يكن مادياً»، كما لاحظ تايلور من جامعة نيويورك. تموضعها كشركة تهتم بالأخلاقيات قد كسبها شعبية عامة؛ فقد ارتفعت تنزيلات موديل كلود بشكل حاد في الأسابيع التي تلت إلغاء العقد.

وتؤكد بريانا روزن، المديرة التنفيذية لبرنامج أكسفورد للسياسات في الأمن السيبراني والتقنية، أن اضطرار شركة لوضع خطوط حدٍّ يشي بفشل الحكومة في القيام بذلك. «لأول مرة تستخدم الولايات المتحدة الذكاء الاصطناعي لتوليد أهداف في عمليات قتالية واسعة النطاق في إيران»، تقول. «والنواب ما يزالون يناقشون ما إذا كانوا سيضعون خطوطاً حمراء على الأسلحة ذاتية التشغيل بالكامل. غياب الحوكمة بحد ذاته يشكّل خطراً على الأمن الوطني».

توسّع النقاش حول تنظيم أسلحة الذكاء الاصطناعي الفجوة بين القلق العام وتردّد الرغبة في الإفراط في تنظيم الابتكار في مجالات أخرى. أظهرت استطلاعات أن الأميركيين قلقون بشأن خسارة الوظائف وآثار التغير المناخي نتيجة للذكاء الاصطناعي. واستطلاع أُجري في أبريل 2025 أجرته جامعة كوينيبّاك وجد أن 69% من الأميركيين يعتقدون أن الحكومة يمكنها فعل المزيد لتنظيم الذكاء الاصطناعي.

أدى هذا الانقسام إلى بروز صناعة الذكاء الاصطناعي كجهة مانحة رئيسية في انتخابات التجديد النصفي لعام 2026. «ليدينغ ذي فيوتشر»، لجنة دعم سياسية فائقة تلقت أكثر من مئة مليون دولار من جريج بروكمان رئيس أوبن إيه آي، وجو لونزديل الشريك المؤسس في بالانتير وغيرهم، مولت إعلانات ضد أليكس بورس، النائب في جمعية ولاية نيويورك المرشح للكونغرس. بورس كان الراعي لقانون RAISE الذي يلزم مطوّري الذكاء الاصطناعي بالإفصاح عن بروتوكولات السلامة أو الحوادث.

في فبراير، أعلنت أنثروبيك تبرعاً بقيمة عشرين مليون دولار لـ«بابليك فيرست أكشن»، لجنة سياسية ستدعم مرشحين مؤيدين لتنظيم الذكاء الاصطناعي، من بينهم بورس.

بينما تسعى شركات الذكاء الاصطناعي لتطوير معايير قطاعية لاختبار وتقييم نماذجها، تضغط أنثروبيك من أجل وضع تنظيمات ملزِمة لأن الجهات الخبيثة قد تنتهك مثل هذه المعايير غير الملزمة، بحسب قول بُلّوك من معهد القانون والذكاء الاصطناعي.

خبراء يرون أن القرار القضائي في قضية أنثروبيك والانتخابات النصفيّة المقبلة قد يحددان مسار تنظيم الذكاء الاصطناعي. كما تقول روزن: «قد يتيح ذلك مساحة لتطوير سياسة أكثر توفّقاً ومدروسًة».

أضف تعليق