مشهد بدا وكأنه من لعبة حرب رقمية
ثلاثة جنود منهكون، يرتدون زِيَّ التمويه الأبيض، يخرجون من زقاق مدمَّر ويديهم مرفوعتان فوق رؤوسهم. ينحنون تبعًا لأوامر تُطلق عليهم، وقد بدت علامات الخوف والصدمة على وجوههم عندما واجهوا مصفاة بندقية رشاشة مركّبة على ما وصِفَ بـ«روبوت أرضي».
فيديو يظهر قبضات آلية
الفيديو، الذي نشرته شركة دفاع أوكرانية في يناير وتنسِب إليه لحظة أسر جنود روس بواسطة روبوت أوكراني مُدار بالذكاء الاصطناعي، لفت انتباه الرأي العام. وفي أبريل قال الرئيس الأوكراني فولوديمير زيلينسكي إن «موضعًا عدائيًا سيطر عليه للمرة الأولى في تاريخ هذه الحرب منصات غير مأهولة فقط — نظم أرضية وطائرات دون طيار». وأضاف أن الأنظمة الأرضية الآلية نفّذت أكثر من 22 ألف مهمة على الجبهة خلال ثلاثة أشهر فقط، مرفقةً صورًا لما يبدو كآلات خضراء ذات مسارات دُولِبية وسِلاحٍ مركب في الأعلى.
توسُّع دور الروبوتات في ساحة المعركة
لم تعد الروبوتات الأرضية حكراً على تفكيك العبوات أو الاستطلاع؛ ففي أوكرانيا اتسع دورها بسرعة ليشمل نقل الإمدادات (ذخائر وطعام ودواء) وإجلاء الجرحى من مواقع خطرة. بعض الألوية أفادت أن نحو 70% من الإمدادات الأمامية تُسلم الآن عبر أنظمة آلية بدلاً من الجنود، ما يعكس تحولًا يتجاوز مجرد رؤية آليات تتجوّل على الأرض إلى إعادة تشكيل طويل الأمد للفن الحربي.
من الطائرات بلا طيار إلى قرار الآلة
الجدل المعاصر حول الذكاء الاصطناعي والحرب تشكّل جزئياً نتيجة انتشار عمليات الطائرات المسيّرة الأمريكية في أوائل العقد الأول من الألفية. كانت طائرة MQ-1 بريديتور في 2002 إحدى أوائل الوسائل التي استخدمت في ضربات مستهدفة من الجو في أفغانستان، ما مثّل منعطفًا في إمكانية خوض الحروب عن بُعد. مع تقدّم الذكاء الاصطناعي، انتقل التركيز من التشغيل عن بعد إلى أنظمة تُعين على التعرف على الأهداف وتحديد أولويات الضربات وإرشاد قرارات ساحة المعركة — محورةً بذلك النقاش إلى مسألة نطاق الاستقلالية المراد منحها للآلات.
الاستقلالية: نقطة المحور الأخلاقية والتقنية
يؤكّد محلّلون أن سؤال مقدار الاستقلالية يجب أن يبقى محورياً، لا أن يُطغى عليه وتيرة التطور التقني وحدها، مهما كان مظهر الآلات البشرية الشبهية على الجبهات ملفتًا. توبِي والش، خبير الذكاء الاصطناعي، وصف عمليات الحرب المدفوعة بالذكاء الاصطناعي بأنها «الثورة الثالثة في الحرب»، محذّرًا من أن غياب الحذر يمكن أن يجعل النزاعات أكثر رهقًا وفتكًا وسرعة بحيث يصعب على البشر أن يكونوا مشاركين فعليين في القرار.
امتداد المواجهة إلى البحر وتحت الماء
لا يقتصر التحوّل على ساحات البر؛ فزورقـات بحرية مسيّرة محمّلة بالمتفجرات أعادت تشكيل مواجهات في البحر الأسود، وتُطوَّر نظم تحت سطحية ذاتية لأغراض مراقبة وتطهير ألغام وعمليات تخريب. كما تُختبر «الكلاب الروبوتية» مهمات المراقبة والاستطلاع وإبطال المتفجرات، وبعض النماذج التجريبية جُهِزَت بأسلحة.
دور الانسان في حلقة القرار
ظهور طائرات قاتلة مستقلة أثار جدلاً حادًا، خصوصًا بعد تقارير عن طائرات تركية من طراز كارجو-2 أُبلغ أنها عملت في وضع مستقل في ليبيا 2020. هذه الحوادث أثارت نقاشات حول أخلاقيات آلة تصنع قرار قتل إنسان وتنفّذه. الباحثة آنا نديبايدزه ترى أن التركيز ينبغي أن يمتد إلى الأسلحة شبه المستقلة «حيث لا يزال الانسان ضمن حلقة القرار» — والسؤال المركزي هل هناك «زمن ومساحة كافيتان لممارسة الحكم البشري الضروري في سياق الحرب». في كثير من الحالات، يعتمد المراقبون على تصريحات الجيوش بشأن مدى التدخل البشري، وهو أمر يصعب الوثوق به عندما تغيب الشفافية.
الواقع العملي في أوكرانيا أظهر أن مشغلاً بشريًا ما زال يوجّه الروبوتات الأرضية إلى حد كبير، وأن هذه المنصات يمكن أن تتوقف أمام عوائق مثل تضاريس غير مستوية. لكن حين يُدخل الذكاء الاصطناعي نفسه في مسارات اتخاذ القرار — كما قيل في هجمات إسرائيل على غزة ومناطق مجاورة — فإن مخرجات الهجمات التي خلّفت «أضرارًا جانبية هائلة وخسائر مدنية بكُلفة قليلة من الأهداف العسكرية» تثير تحديًا واضحًا لقواعد القانون الإنساني الدولي، وبخاصة مبدأ التناسب.
تعقيدات الحوكمة وسلسلة التوريد
من الصعب فرض قواعد على استعمال الذكاء الاصطناعي في الحروب لأن الأمر، في جوهره، يُترك لكل جيش ليقرر ما إذا كان يعتبر دور الانسان في العملية كافياً. تقرير لمعهد ستوكهولم لأبحاث السلام حذّر من أن سلسلة توريد الذكاء الاصطناعي مبعثرة وعالمية وتعتمد كثيرًا على التكنلوجيا المدنية، مما يزيد صعوبة تنظيم الاستخدام العسكري. وزارة الدفاع الأمريكية والجيش يدمجان باستمرار برمجيات طورتها شركات خاصة داخل بنيتهم الحربية: في منتصف العام الماضي منحت وزارة الدفاع عقودًا بمئات الملايين لشركات مثل OpenAI وxAI وAnthropic لتطبيق أنظمة توليدية في المجال العسكري.
أوكرانيا كمختبر وتجارب للضوابط المستقبلية
التكنولوجيا والذكاء الاصطناعي ليستا بالضرورة ضارتين؛ إنما الطريقة التي تُستخدمان بها هي الحاسمة. على الجبهة الأوكرانية استُخدمت نظم روبوتية أيضًا للإنقاذ وتقديم الدعم اللوجستي في مناطق مليئة بالألغام وخطرة. لكن ما يحدث على الجبهات يُعدّ في كثير من النواحي ميدان اختبار، والمجتمع الدولي مطالب أن يتطلع إلى كيف يمكن تطبيق هذه التقنيات وتنظيمها في صراعات مستقبلية.
آفاق الحوكمة والدبلوماسية
رغم «الإخفاق الأخلاقي» المتعلق بأفعال إسرائيل في غزة بحسب تقديرات بعض المراقبين، ثمّة إدراك دولي بضرورة معالجة هذه القضايا، بما في ذلك اجتماعات أممية مكرّسة لتنظيم أنظمة الأسلحة القاتلة المستقلة. المعهد الأمم المتحدة لأبحاث نزع السلاح (UNIDIR) سيجتمع لبحث تداعيات الذكاء الاصطناعي على السلم والأمن الدوليين. التاريخ يُظهر أن تقنيات سلاحية جديدة لطالما هددت النظام القائم على قواعد؛ لكن، ولو بعد بطء ونقص، تُسنُّ اتفاقات دولية تضع ضوابط — كما حدث مع الأسلحة الكيميائية. هناك فاعلون من الجنوب Global South يسعون إلى تنظيمات إقليمية قد تضع معايير ناشئة حتى لو لم تشارك فيها القوى الكبرى أو مطورو التكنولوجيا الرئيسيّون منذ البداية.