يطرح ظهور الاستهداف “الذكي” تحديًا صارخًا للقوانين الحالية للحرب.
في عام 1863، كتب فرانسيس ليبر، الفقيه البروسي الأمريكي الذي كلفه أبراهام لينكولن بتدوين قوانين الحرب البرية، أنه لا يجوز لأي جندي قتل عدو “قد ألقى سلاحه”. يجب أن تظل الحرب، مهما كانت وحشية، فعلًا يتم بواسطة وكيل أخلاقي مسؤول يمكنه أن يحاسب على ما فعله ولمن تم ذلك.
كان قانون ليبر غير كامل. كان تطبيقه انتقائيًا عرقيًا وغالبًا ما تم خيانة طموحاته الإنسانية في الممارسة. لكن فرضيته الأساسية نجت من حربين عالميتين، وصياغة اتفاقيات جنيف، وتطوير كل نظام سلاح من المدفع الرشاش إلى الذخائر الموجهة بدقة. فرضيته هي أن القوة القاتلة تتطلب إنسانًا يمكن التعرف عليه واستجوابه ومحاسبته.
اليوم، تكسر أنظمة الاستهداف المدعومة بالذكاء الاصطناعي هذه الفرضية بشكل جذري. للمرة الأولى في تاريخ الحرب المدونة، الكيان الذي يحدد من يموت لا يمكن استدعاؤه أمام المحكمة ولا يمكنه التعبير عن مبرراته. ما افترضه ليبر كشرط دائم للصراع المسلح – وكيل أخلاقي في نهاية سلسلة القتل – قد تم هندسته بهدوء وبشكل متعمد لإخراجه من الوجود.
زعمت القيادة المركزية الأمريكية (CENTCOM) أن عملية “غضب ملحمي”، العنوان الرسمي لحرب أمريكا مع إيران، قد استهدفت أكثر من ألف هدف في فترة 24 ساعة واحدة. وقد نسبت القيادة المركزية الفضل إلى الأنظمة المدعومة بالذكاء الاصطناعي في وتيرة العمليات.
هذا النوع الجديد من الحرب يعزز تحولًا خطيرًا في كيفية اتخاذ القرارات. أصبحت الخيارات الأكثر أهمية حول من يموت، ولماذا يموت، وما الأدلة التي تبرر وفاته، مفوضة الآن إلى أنظمة الذكاء الاصطناعي. هذه الأنظمة تستنتج بطرق غير شفافة هيكليًا، مما يعني أن البشر الذين يُفترض أنهم في القيادة لا يمكنهم حقًا فهم أو تفسير تلك القرارات.
لكن هناك مشكلة أكثر جوهرية. لا تخلق أنظمة الاستهداف الخوارزمية مخاطر جديدة من الخطأ فحسب؛ بل تنتج بيئة قانونية جديدة – ساحة معركة يكون فيها أساس أي قرار استهداف مصممًا ليكون غير معروف للقادة الذين يصرحون به، والمحامين الذين يقيمونه، والمحاكم التي قد تحكم عليه في النهاية. تصبح الخوارزمية مولدًا للظلام المعرفي الذي لا يمكن استجوابه.
تستند قوانين النزاع المسلح إلى فرضية أساسية مفادها أن صانع القرار البشري، عند مهاجمة هدف، يمكنه التعبير عن الأساس الواقعي لاعتقاده بأنه كان هدفًا عسكريًا مشروعًا. هذا هو أساس تحليل التناسب والمسؤولية الجنائية الفردية. أزل الأساس القابل للتعبير، وما يتبقى هو هيكل من القواعد القانونية بدون آلية تنفيذ.
تُفكك أنظمة استهداف الذكاء الاصطناعي الحديثة هذه الأسس بطريقة محددة. لا تنتج هياكل التعلم العميق قرارات مصحوبة بسلاسل استدلال واضحة. بل تنتج مخرجات، ودرجات احتمالية، وتصنيفات للتهديدات، مستمدة من التفاعل الموزون لمئات الملايين من المعلمات عبر مجموعات بيانات تدريب غير شفافة.
وجدت دراسة في مجلة Nature Machine Intelligence عام 2023 أن حتى مطوري النماذج، عند منحهم الوصول الكامل إلى الهيكل والأوزان، لا يمكنهم إعادة بناء تركيبات الميزات المحددة التي أدت إلى أي قرار تصنيفي فردي بشكل موثوق. الضابط الذي يوافق على هدف تم إنشاؤه بواسطة الذكاء الاصطناعي لا يتحقق من أي شيء. بل يقوم بتصديق توصية لا يمكنه فحص أسسها.
هذا ما يجعل فجوة الأخلاقيات من الشراء إلى النشر ذات أهمية كبيرة. تعد مبادئ أخلاقيات الذكاء الاصطناعي لوزارة الدفاع الأمريكية لعام 2020 بالقدرة على تتبع القرارات والحكم البشري. ما تفشل في شرحه هو ما يحدث عندما تتعارض هذه المتطلبات مع وتيرة العمليات. ببساطة، البشر غير قادرين على التحقق من عدد كافٍ من الأهداف لتنفيذ 1000 ضربة في اليوم.
تقدم الحالة الإسرائيلية أفضل مثال موثق جنائيًا على ذلك. لم يكن برنامج لافندر، الذي أنشأ قوائم بالأهداف للضربات الإسرائيلية في غزة، برنامجًا متمردًا. بل تم الموافقة عليه رسميًا، وتم منح الضباط الحق في قتل ما يصل إلى عشرين مدنيًا مقابل كل عنصر من حماس يتم الإشارة إليه من قبل النظام. تم تقليص عمليات الموافقة إلى بضع ثوانٍ من التصديق، وفقًا لمجلة 972. كان البشر “في الحلقة” ببساطة يقومون بغسل القرارات الخوارزمية بغطاء من التفويض.
كما أن انتشار هذا النموذج إلى الدول العميلة جدير بالملاحظة هنا. تركز الأدبيات حول حرب الذكاء الاصطناعي بشكل غير متناسب على المنافسة بين الولايات المتحدة والصين. ما تخفيه هو الطريقة التي يتم بها تصدير عقيدة الذكاء الاصطناعي الأمريكية والناتو، وفرضياتها الأساسية بشأن الخسائر المدنية المقبولة، إلى الجيوش المتحالفة بموجب اتفاقيات مبيعات عسكرية أجنبية دون إطار إشراف أخلاقي يُفترض أنه يحد منها في البلد الأم.
في نزاع ناغورنو كاراباخ عام 2020، وسعت أذربيجان استخدام الطائرات المسيرة، مستخدمة أسلحة تركية مدعومة بالذكاء الاصطناعي. في الحرب الأهلية في السودان، استخدمت بعض الأطراف الذكاء الاصطناعي للمساعدة في الاستهداف، وقد ساهم ذلك أحيانًا في الهجمات على المدنيين، وفقًا للجنة الأمم المتحدة للخبراء. كما أخبرت السودان مجلس الأمن التابع للأمم المتحدة أن قوات الدعم السريع حصلت على أسلحة ذات أصل بريطاني من خلال الإمارات العربية المتحدة. وشملت بعض هذه الهجمات “ضربات توقيع”، التي تُنشئ أهدافًا بناءً على أنماط سلوكية بدلاً من تحديد هوية فردية مؤكدة.
كل هذا يتفاقم بسبب مشكلة بيانات التدريب. تعتمد الادعاءات بأن استهداف الذكاء الاصطناعي دقيق على افتراض أن بيانات التدريب تعكس بدقة الفئات التي تدعي أنها تصفها. في الممارسة العملية، تتعلم هذه الأنظمة من التجارب السابقة في العمليات، مما يرمز الأخطاء والافتراضات الاستراتيجية للنزاعات السابقة. في الحملات الأمريكية بعد 11 سبتمبر في باكستان واليمن، كانت الضربات المميزة تستهدف أحيانًا أشخاصًا على أساس أنهم رجال في سن الخدمة العسكرية يعيشون في بلدة معينة. يمكن للذكاء الاصطناعي المدرب على تلك الحملات أن يكرر هذه التجاوزات دون أن يقوم إنسان بسحب الزناد.
في عام 2015، وجدت مؤسسة ستيمسون أن “الضربات المميزة” تخلط بين سلوك المدنيين والمقاتلين في ثقافات معينة. لقد تم ترميز هذا الخلط في الذكاء الاصطناعي للاستهداف. تسمي لوري بلانك من جامعة إيموري هذا “انهيار المساءلة الزمنية”: تحدث أخطاء التصنيف أثناء تدريب النموذج، قبل سنوات من الضربة. بحلول الوقت الذي يموت فيه شخص ما، يكون الرابط السببي بين الخطأ البشري الأصلي ووفاة المدني قد تم تشويهه بالفعل.
جاءت استجابة المجتمع الدولي إلى حد كبير من مجموعة اتفاقية الأسلحة التقليدية (CCW) بشأن الأسلحة المستقلة القاتلة، التي اجتمعت منذ عام 2014. بعد اثني عشر عامًا، لم تنشئ هذه المجموعة بعد أداة ملزمة أو تعريفًا أو آلية امتثال للأسلحة المدعومة بالذكاء الاصطناعي. ترغب العديد من الدول في الجنوب العالمي في فرض قيود قانونية، لكن القوى الغربية تفضل المبادئ الطوعية. تستهلك هذه العملية طاقة المجتمع المدني دون تقديم أي حوكمة حقيقية.
ستتطلب المساءلة الفعالة ثلاثة أشياء: الكشف الإلزامي عن الخوارزميات لمراجعات ما بعد الضربة، والتحقيقات المستقلة في الحوادث مع وصول ملزم (مستند إلى قواعد الطيران الخاصة بـ ICAO)، والمسؤولية على مستوى المعاهدات عن الأضرار التي تلحق بالمدنيين بسبب الذكاء الاصطناعي. كما ستتطلب ضوابط تصدير على استهداف الذكاء الاصطناعي، مع مراقبة حقيقية لاستخدامه النهائي. إذا كانت هذه الأنظمة دقيقة كما زعم منشئوها، فإن الدول التي تستخدمها ستستقبل مثل هذه المراقبة.
أعمق مشكلة في الحرب الخوارزمية ليست أنها تجعل القتل أكثر كفاءة. بل إنها تقوض بشكل عميق قوانين الحرب، مما يجعل النزاع غير شفاف في مبرراته، مدمرًا في نتائجه، وغير قابل للتحدي هيكليًا. لا تصبح الخوارزمية عذرًا. بل تصبح البنية التي يصبح فيها مفهوم العذر نفسه عتيقًا.

