الحرب في إيران قد زادت من المخاوف بشأن مخاطر استخدام الذكاء الاصطناعي في اختيار الأهداف خلال النزاعات المسلحة.
لقد عززت الحرب الأمريكية الإسرائيلية مع إيران المخاوف المستمرة بشأن اعتماد استهداف مدعوم بالذكاء الاصطناعي في الحروب.
ظهرت هذه المخاوف إلى السطح بعد الضربة التي وقعت في 28 فبراير على مدرسة شجرة طيبة للبنات في ميناب، جنوب إيران، والتي تقول إيران إنها أسفرت عن مقتل ما لا يقل عن 168 شخصًا، معظمهم من الأطفال.
في البداية، ألقت إدارة ترامب اللوم على إيران في الضربة، رغم أنها لم تقدم أي دليل. وتقول الولايات المتحدة إنها تحقق الآن في القصف. وقد أفادت صحيفة واشنطن بوست أن المدرسة كانت على قائمة أهداف أمريكية.
كتب ديمقراطيو مجلس الشيوخ الأمريكي إلى وزير الحرب بيت هيغسث طالبين معلومات حول الهجوم، بما في ذلك توضيح بشأن أي استخدام للذكاء الاصطناعي في اختيار الأهداف. حتى الآن، لم يتم تأكيد ما إذا كان قد تم استخدام الذكاء الاصطناعي في التخطيط أو تنفيذ الضربة على المدرسة.
أكد الأدميرال براد كوبر، القائد الأمريكي الذي يقود الحرب في إيران، استخدام “مجموعة متنوعة من أدوات الذكاء الاصطناعي المتقدمة” لفرز كميات كبيرة من البيانات في النزاع، دون أن يسمي أي أدوات معينة. وقال إن هذه الأدوات سمحت للقادة باتخاذ “قرارات أكثر ذكاءً أسرع من رد فعل العدو” وسرعت العمليات من ساعات أو أيام إلى ثوانٍ. كما صرح الأدميرال كوبر بأن: “البشر سيقومون دائمًا باتخاذ القرارات النهائية بشأن ما يجب إطلاقه وما لا يجب إطلاقه، ومتى يجب إطلاقه.”
إيران ليست الحرب الأولى التي تتضمن أنظمة الذكاء الاصطناعي، لكنها تشير إلى أن الاستهداف المدعوم بالذكاء الاصطناعي أصبح هو القاعدة في الحروب. بينما قد تتبنى الجيوش الإمكانية لزيادة الكفاءة، تبقى المخاطر الكبيرة قائمة.
زيادة اعتماد الجيش
يتيح الذكاء الاصطناعي معالجة وتحليل المعلومات بسرعة من مجموعة متنوعة من المصادر المختلفة والوصول إلى بيانات قابلة للتخصيص. إن اعتماده عبر المجال العسكري لديه القدرة على زيادة الوعي بالوضع، وتسهيل تبادل المعلومات في الوقت الحقيقي، وتمكين اتخاذ قرارات أكثر استنارة في العمليات العسكرية.
أوضح إصدار وزارة الحرب الأمريكية لعام 2024 كيف يساعد نظام مافن الذكي المدعوم بالذكاء الاصطناعي الجنود في الخطوط الأمامية على تحديد الأهداف العسكرية وضربها، ويساعد في الموافقة على الضربات من سلسلة القيادة. كما حصلت الناتو على نسخة من نظام مافن الذكي من بالانتير في عام 2025. وتفيد التقارير أن الجيش الأمريكي يستخدم الآن نسخته الخاصة من مافن للمساعدة في توفير معلومات الاستهداف لعملياته العسكرية في إيران. لكن من غير الواضح بالضبط كيف وإلى أي مدى يتم استخدام مافن وأدوات الذكاء الاصطناعي الأخرى في إيران.
في الحرب في أوكرانيا، يستخدم كلا الجانبين الذكاء الاصطناعي لمعالجة البيانات واختيار الأهداف. قال نائب وزير الدفاع الأوكراني العام الماضي إن الذكاء الاصطناعي يحلل أكثر من 50,000 بث فيديو من الخط الأمامي كل شهر، مما يساعد على “معالجة هذه البيانات الضخمة بسرعة، وتحديد الأهداف، ووضعها على خريطة.”
وقد أفادت صحيفة نيويورك تايمز أن إسرائيل استخدمت الذكاء الاصطناعي كجزء من عمليتها لتحديد الأهداف المحتملة للضربات الجوية التي تستهدف حماس في غزة. وقد قالت قوات الدفاع الإسرائيلية إن “أنظمة المعلومات ليست سوى أدوات للمحللين في عملية تحديد الأهداف.”
تشمل الاستخدامات الإضافية لتكنولوجيا الذكاء الاصطناعي عبر المجال العسكري تدريب الأفراد العسكريين من خلال المحاكاة الافتراضية، والجدولة الآلية للإمدادات اللوجستية أو تحديد احتياجات صيانة المعدات عبر أنظمة التعرف على الصور. هذه مجرد بعض الاستخدامات المحتملة.
المخاطر
ستسعى العديد من الدول للاستثمار في أدوات تمنحها ميزة على الخصوم، بما يتماشى مع البحث عن عدم التماثل، الذي كان ثابتًا طوال تاريخ الحروب. لكن استخدام الذكاء الاصطناعي في بيئات معقدة وعالية المخاطر مثل النزاعات المسلحة يأتي أيضًا مع مخاطر جدية.
جزء من القلق يتعلق بتطوير تقنية الذكاء الاصطناعي نفسها وكيف يمكن أن تؤثر على أداء النظام. على سبيل المثال، يمكن تدريب نموذج ذكاء اصطناعي باستخدام بيانات خاطئة، أو باستخدام مواد تختلف عما يواجهه عند نشره في العالم الحقيقي. قد يؤدي ذلك إلى توليد معلومات غير دقيقة أو حدوث خلل عند استخدامه خارج بيئة التدريب.
تعمل نماذج اللغة الكبيرة المدعومة بالذكاء الاصطناعي من خلال توقع تسلسل من الكلمات، بناءً على الاحتمالات الإحصائية – من المحتمل أن تصيب الهدف في معظم الأحيان، لكنها لن تصيب الهدف في جميع الأوقات.
بالمعنى العملي، يعني ذلك أن اتخاذ القرارات بناءً على معلومات تم توليدها بواسطة الذكاء الاصطناعي يحتوي على عنصر من المخاطر وعدم الدقة.
تعتبر قرارات الاستهداف المدعومة بالذكاء الاصطناعي حالة عالية المخاطر. إذا كانت أدوات الذكاء الاصطناعي تُستخدم بشكل مكثف لتوليد الأهداف مع إشراف إنساني محدود، فلا يصعب تخيل كيف يمكن أن تحدث الأخطاء.
تتمثل إحدى القضايا الأساسية التي تبرزها استخدامات الذكاء الاصطناعي في الحرب في أن هناك فرقًا بين ما يمكن أن تفعله الأنظمة المدعومة بالذكاء الاصطناعي والإجراءات أو القواعد المتعلقة بكيفية استخدام البشر لتلك الأنظمة.
ما الذي يمكن تحسينه؟
تشير حرب إيران إلى أن أدوات الذكاء الاصطناعي من المقرر أن تُستخدم بشكل متزايد في النزاعات المسلحة. بينما تنطبق قوانين الحرب على جميع النزاعات، هناك نقاش متزايد حول ما إذا كان الذكاء الاصطناعي يقدم بعدًا جديدًا يتطلب قواعد إضافية. على سبيل المثال، تم إثارة المخاوف بشأن كيفية تقليل الذكاء الاصطناعي للمساحة اللازمة للحكم البشري المطلوب لتحديدات القانون الإنساني الدولي.
من غير المرجح أن يتم وضع إطار دولي ملزم في الأجل القصير. ومع ذلك، من مصلحة الجيوش نفسها تطوير قواعد لاستخدام الذكاء الاصطناعي. سيساعد ذلك في تقليل مخاطر الاعتماد المفرط على الاستهداف المدعوم بالذكاء الاصطناعي، مما قد يقلل من الأخطاء التي تؤدي إلى استهداف أهداف خاطئة وتسبب وفيات مدنية.
يمكن أن يتضمن تشكيل هذه القواعد بناء فهم مشترك بين الدول والجيوش وشركات التكنولوجيا والأوساط الأكاديمية والمجتمع المدني حول كيفية تعزيز التعاون بين الإنسان والآلة – أو كيفية تفاعل البشر وأنظمة الذكاء الاصطناعي بحيث يحقق كل منهما ما هو أفضل فيه. يجب أيضًا النظر في كيفية مراقبة الأعطال المستندة إلى الذكاء الاصطناعي وتعزيز تحسينات النظام في البيئات المعقدة.
تم تمرير قرار الأمم المتحدة بشأن “الذكاء الاصطناعي في المجال العسكري وآثاره على السلام والأمن الدوليين” في ديسمبر 2025، وهو خطوة في الاتجاه الصحيح. يشجع القرار المناقشات متعددة الأطراف ومتعددة أصحاب المصلحة؛ من المقرر أن توفر اجتماع متعدد الأطراف لمدة ثلاثة أيام في يونيو 2026 فرصة للتبادل غير الرسمي والتشاور حول استخدام الذكاء الاصطناعي في النزاعات المسلحة.
توفر هذه المناقشات سبلًا لبناء الثقة وقد تمهد الطريق لممارسات مشتركة أفضل. بدون ذلك، فإن المخاطر المحتملة لاستخدام الذكاء الاصطناعي في النزاع خطيرة.

