أنثروبيك ضد البنتاغون: لماذا تتحدى شركة الذكاء الاصطناعي إدارة ترامب؟ أخبار حكومية

نزاع متصاعد بين الحكومة الأميركية وشركة انثروبيك—إحدى شركات التكنولوجيا الرائدة في تطوير أدوات الذكاء الاصطناعي للاستخدامين العسكري والمدني.

أفادت تقارير حديثة بأن برنامج الشركة «كلود» استُخدم في عملية عسكرية أميركية أدت إلى اختطاف الرئيس الفنزويلي نيكولاس مادورو في يناير من هذا العام. وأفادت وكالتا رويترز والأسوشييتد برس نقلاً عن مصادر لم تُكشَف هويتها أن وزير الدفاع الأميركي بيت هيغسِث منح الشركة مهلة حتى يوم الجمعة لتخفيف قيود استخدام أدواتها من قبل البنتاجون، وإلا فستواجه احتمال خسارة عقد حكومي.

غير أن انثروبيك ترفض التراجع عن آليات الحماية التي تمنع توظيف تقنيتها في رقابة داخلية على المواطنين الأميركيين أو في برمجة أسلحة قادرة على استهداف أهداف دون تدخل بشري.

من هي انثروبيك؟
تأسست انثروبيك في 2021 على يد مسؤولين سابقين في شركة OpenAI، وسرعان ما برزت كثاني ملحوظ مطور لنماذج لغوية كبيرة بعد استخدامها أولاً في عمليات مصنفة لدى وزارة الدفاع الأميركية. أشهر منتجاتها هو نموذج اللغة الكبير «كلود»، الذي يُنتج نصوصاً ومخرجات مرئية وصوتية تشبه ما يكتب أو يبتكره البشر بعد أن يُدرّب على مجموعات ضخمة من الكتب والمواقع والصور والفيديوهات.

كيف تُستخدم نماذج اللغة الكبيرة في المجال العسكري؟
على مستوى الدفاع، تُستعمل هذه النماذج لتلخيص كميات هائلة من النصوص، وتحليل البيانات، والترجمة، وتفريغ المحادثات، وصياغة المذكرات. ونظرياً يمكن أن تُستخدم أيضاً لدعم أنظمة أسلحة ذاتية أو شبه ذاتية تحدد الأهداف وتضربها من دون توجيه بشري—وهو ما تَحظُره سياسات معظم شركات الذكاء الاصطناعي.

موقف انثروبيك وسجلها الأمني
تعرضت انثروبيك في نوفمبر لعملية اختراق نسبتها الشركة إلى مجموعة مخترقين مدعومة من دولةٍ صينية حاولت التلاعب بكود كلود لاستهداف نحو ثلاثين جهة عالمية من بينها وكالات حكومية وشركات كيماويات ومؤسسات مالية وشركات تقنية؛ ونجحت بعض المحاولات. في وقت سابق من الشهر الحالي استقال الباحث في سلامة الذكاء الاصطناعي مرينانك شارما من منصبه في الشركة، معبراً عن قلقه من مخاطر الذكاء الاصطناعي وربطها بأزمات متشابكة تهدد العالم.

يقرأ  بنغلاديش تندد بالهند بعد أول خطاب علني لشيخ حسينة — المشار إليها بأنها «هاربة»أخبار انتخابات بنغلاديش 2026

الشركات الأخرى المتعاونة مع الجيش الأميركي
أعلن البنتاجون الصيف الماضي منح عقود دفاعية إلى أربع شركات ذكاء اصطناعي: انثروبيك، غوغل، OpenAI، وxAI، وتبلغ قيمة كل عقد حتى 200 مليون دولار. وكانت انثروبيك أول شركة تُجاز للمشاركة في شبكات عسكرية مصنفة، وتعمل فيها مع شركاء مثل شركة البرمجيات الأميركية Palantir التي تعرضت لانتقادات وصلاتها بالقوات المسلحة الإسرائيلية. أما xAI التابعة لإيلون ماسك فتقول إن شاتبوتها «جروك» جاهز أيضاً للاستخدام في بيئات مصنفة، وفق مسؤول كبير في البنتاجون.

السياسة والإصرار على حرية الاستخدام
إدارة ترامب السابقة سعت لأن تكون منتجات شركات الذكاء الاصطناعي متاحة للاستخدام من دون قيود أيديولوجية. وقال هيغسِث إن رؤيته لأنظمة الذكاء الاصطناعي العسكرية أن تعمل «دون قيود أيديولوجية تحد من التطبيقات العسكرية المشروعة»، وأضاف أن «الذكاء الاصطناعي في البنتاجون لن يكون ووك—» في تعليق أثار جدلاً.

ماذا جرى في الاجتماع الأخير؟
ذكرت مصادر أن هيغسِث منح المدير التنفيذي لأنثروبيك داريو أمودي مهلة حتى الجمعة الساعة الخامسة مساءً ليوافق على تيسير استخدام نماذج الشركة على الشبكة الداخلية الجديدة للبنتاجون مع قيود أقل. وحذّر مسؤولون من إمكانية تصنيف انثروبيك كمخاطر على سلسلة التوريد أو تطبيق قانون إنتاج الدفاع لمنح الجيش سلطات أوسع على منتجاتها حتى لو اعترضت الشركة على كيفية استعمالها.

أمضي أمودي سابقاً في التعبير عن مخاوف أخلاقية من استخدام الحكومة للذكاء الاصطناعي بلا ضوابط، لا سيما فيما يتعلق بالمسيرات المسلحة المستقلة ورقابة جماعية واسعة قد ترصد المعارضة. كتب في مقالة أن «ذكاءً اصطناعياً قوياً يطالع مليارات المحادثات لملايين الأشخاص قد يقوّم المزاج العام، ويكشف جيوباً من عدم الولاء، ويقمعها قبل أن تكبر».

وصف شخص مطلع نبرة الاجتماع بأنها «ودية» لكنه قال إن أمودي رفض التنازل بشأن نقطتين أساسيتين: العمليات العسكرية ذات الاستهداف الذاتي بالكامل، والرقابة الداخلية على مواطني الولايات المتحدة. وفي حلقة بودكاست أوضح أمودي موقفه مكرراً مخاوفه من «سربات مسيرات مستقلة» ورقابة شاملة. وذكّر بأن الضمانات الدستورية في هياكلنا العسكرية تعتمد على وجود بشر قد يخالفون أوامر غير قانونية، وهو تمييز لا تستطيع الأسلحة المستقلة تحقيقه.

يقرأ  شركة الشحن العملاقة إم.إس.سي تسهّل تجارة المستوطنات الإسرائيلية عبر الاتحاد الأوروبي — أخبار

وجهة نظر البنتاجون أن قيود انثروبيك الأخلاقية تعيق العمليات العسكرية التي تتطلب أدوات بلا حدود مضمّنة؛ وأن مسؤولية الاستخدام القانوني تقع على عاتق الجيش.

كيف استُخدم كلود في فنزويلا؟
في 3 يناير نفذت قوات أميركية خاصة عملية أدت إلى اختطاف مادورو، الذي لا يزال قيد الاحتجاز في الولايات المتحدة ومواجهة اتهامات تتعلق بالمخدرات والأسلحة في نيويورك. كشفت تقارير إعلامية في 14 فبراير أن كلود استُخدم في العملية التي استهدفت كاراكاس وأدت إلى اعتقاله. رفض مسؤول من انثروبيك التعليق حول ما إذا استُخدم كلود أو أي نموذج آخر فعلياً في العملية، لكنه أكد أن أي استعمال لنماذجهم في القطاع العام أو الخاص يجب أن يلتزم بسياسات الاستخدام الخاصة بكلود.

تنص سياسات الاستخدام المنشورة على موقع الشركة على منع استعمال كلود في أعمال المراقبة، وتطوير الأسلحة، أو التحريض على العنف. وقد أسفرت العملية الخاصة في فنزويلا عن مقتل 83 شخصاً، من بينهم 47 جندياً فنزورياً، بحسب تقارير إعلامية.

الشراكات والاتهامات الدولية
تعاونت انثروبيك مع Palantir التي تُستخدم أدواتها كذلك من قبل وزارة الدفاع ووكالات إنفاذ القانون الفدرالية. يبقى غير واضح بالضبط كيف استُخدم كلود خلال الغارة، لكن أدوات الذكاء الاصطناعي قادرة نظرياً على توجيه الطائرات المسيرة، وتحليل الصور، وتلخيص الاتصالات المشتبه فيها.

في سياق منفصل، أصدر مقررة الأمم المتحدة الخاصة حقوق الإنسان في الأراضي الفلسطينية المحتلة، فرانسيسكا ألبانييز، تقريراً وثق شركات تُعيّن في دعم جهود إسرائيل التي اعتُبرت بموجبه انتهاكات أدت إلى نزوح واسع وعلى خلفية حرب غزة منذ أكتوبر 2023، وذكر التقرير أن Palantir وسعت دعمها للجيش الإسرائيلي منذ اندلاع الصراع.

أضف تعليق