جنگ در ایران نگرانیها درباره خطرات استفاده از هوش مصنوعی برای انتخاب اهداف در درگیریهای مسلحانه را افزایش داده است.
جنگ ایالات متحده و اسرائیل با ایران نگرانیهای دیرینه درباره پذیرش هدفگذاری پشتیبانیشده با هوش مصنوعی در جنگها را تشدید کرده است.
این نگرانیها پس از حمله ۲۸ فوریه به مدرسه دخترانه شجره طیبه در میناب، جنوب ایران، که ایران میگوید حداقل ۱۶۸ نفر را کشته است، بیشتر به چشم آمد، که بیشتر آنها دانشآموزان بودند.
دولت ترامپ در ابتدا ایران را به خاطر این حمله مقصر دانست، هرچند هیچ مدرکی ارائه نکرد. ایالات متحده میگوید که اکنون در حال تحقیق درباره این بمبگذاری است. واشنگتن پست گزارش داده است که این مدرسه در فهرست اهداف ایالات متحده قرار داشته است.
دموکراتهای سنا در ایالات متحده به وزیر جنگ، پیت هگست، نامه نوشته و درخواست اطلاعاتی درباره این حمله کردهاند، از جمله توضیحاتی درباره هرگونه استفاده از هوش مصنوعی در انتخاب اهداف. تا کنون تأییدی مبنی بر اینکه آیا هوش مصنوعی در برنامهریزی یا اجرای حمله به مدرسه استفاده شده است یا خیر، وجود ندارد.
آدمیرال برد کوپر، فرمانده ایالات متحده که رهبری جنگ در ایران را بر عهده دارد، تأیید کرده است که از «انواع ابزارهای پیشرفته هوش مصنوعی» برای پردازش حجم زیادی از دادهها در این درگیری استفاده شده است، بدون اینکه به ابزار خاصی اشاره کند. او گفت که این ابزارها به رهبران اجازه میدهند «تصمیمات هوشمندانهتری را سریعتر از آنچه دشمن بتواند واکنش نشان دهد، اتخاذ کنند» و فرآیندها را از چند ساعت یا چند روز به چند ثانیه تسریع میبخشند. آدمیرال کوپر همچنین بیان کرد: «انسانها همیشه تصمیم نهایی را درباره اینکه چه چیزی را هدف قرار دهند و چه چیزی را هدف قرار ندهند و چه زمانی شلیک کنند، خواهند گرفت.»
ایران اولین جنگی نیست که سیستمهای هوش مصنوعی را در بر میگیرد، اما نشان میدهد که هدفگذاری پشتیبانیشده با هوش مصنوعی در حال تبدیل شدن به یک هنجار در جنگها است. در حالی که نیروهای نظامی ممکن است از پتانسیل افزایش کارایی استقبال کنند، خطرات قابل توجهی همچنان وجود دارد.
افزایش پذیرش نظامی
هوش مصنوعی امکان پردازش و تحلیل سریع اطلاعات از منابع مختلف و دسترسی به دادههای قابل تنظیم را فراهم میکند. پذیرش آن در حوزه نظامی پتانسیل افزایش آگاهی از وضعیت، تسهیل اشتراکگذاری اطلاعات در زمان واقعی و امکان تصمیمگیری آگاهانهتر در عملیاتهای نظامی را دارد.
یک گزارش از وزارت جنگ ایالات متحده در سال ۲۰۲۴ توضیح داد که چگونه سیستم هوشمند مِیون (Maven Smart System) پشتیبانیشده با هوش مصنوعی به سربازان خط مقدم کمک میکند تا اهداف نظامی را شناسایی و هدف قرار دهند و تأیید زنجیره فرمان را برای حملات تسهیل میکند. ناتو نیز نسخهای از سیستم مِیون را از پالانتیر در سال ۲۰۲۵ خریداری کرده است. به گزارشها، ارتش ایالات متحده اکنون از نسخه خود از مِیون برای ارائه اطلاعات هدفگذاری در عملیاتهای نظامی خود در ایران استفاده میکند. اما مشخص نیست که دقیقاً چگونه و تا چه حد از مِیون و سایر ابزارهای هوش مصنوعی در ایران استفاده میشود.
در جنگ اوکراین، هر دو طرف از هوش مصنوعی برای پردازش دادهها و انتخاب اهداف استفاده میکنند. معاون وزیر دفاع اوکراین سال گذشته گفت که هوش مصنوعی بیش از ۵۰,۰۰۰ جریان ویدیویی از خط مقدم را هر ماه تحلیل میکند که به «پردازش سریع این دادههای عظیم، شناسایی اهداف و قرار دادن آنها روی نقشه» کمک میکند.
نیویورک تایمز گزارش داده است که اسرائیل از هوش مصنوعی به عنوان بخشی از فرآیند شناسایی اهداف بالقوه برای حملات هوایی به حماس در غزه استفاده کرده است. ارتش اسرائیل (IDF) گفته است که «سیستمهای اطلاعاتی تنها ابزارهایی برای تحلیلگران در فرآیند شناسایی اهداف هستند.»
استفادههای اضافی از فناوری هوش مصنوعی در حوزه نظامی شامل آموزش پرسنل نظامی از طریق شبیهسازیهای مجازی، برنامهریزی خودکار تأمین لجستیکی یا شناسایی نیازهای نگهداری تجهیزات از طریق سیستمهای شناسایی تصویر است. اینها تنها برخی از استفادههای بالقوه هستند.
خطرات
بسیاری از کشورها خواهند خواست که در ابزارهایی سرمایهگذاری کنند که به آنها برتری نسبت به رقبای خود بدهد، مطابق با جستجوی عدم تقارن که در طول تاریخ جنگها همواره وجود داشته است. اما استفاده از هوش مصنوعی در محیطهای پیچیده و پرخطر مانند درگیریهای مسلحانه همچنین با خطرات جدی همراه است.
بخشی از نگرانیها به توسعه فناوری هوش مصنوعی خود و اینکه چگونه میتواند بر عملکرد سیستم تأثیر بگذارد، مربوط میشود. به عنوان مثال، یک مدل هوش مصنوعی میتواند با دادههای معیوب آموزش ببیند، یا با موادی که با آنها در دنیای واقعی مواجه میشود، متفاوت باشد. این میتواند منجر به تولید اطلاعات نادرست یا نقص عملکرد آن هنگام استفاده در خارج از محیط آموزشی شود.
مدلهای بزرگ زبان هوش مصنوعی با پیشبینی یک توالی از کلمات بر اساس احتمالهای آماری کار میکنند – آنها احتمالاً بیشتر اوقات درست عمل خواهند کرد، اما همیشه درست نخواهند بود.
از نظر عملی، این به این معنی است که تصمیمگیری بر اساس اطلاعات تولید شده توسط هوش مصنوعی حاوی عنصر ریسک و عدم دقت است.
تصمیمات هدفگذاری پشتیبانیشده توسط هوش مصنوعی یک مورد با ریسک بالا است. اگر ابزارهای هوش مصنوعی به طور گستردهای برای تولید اهداف با نظارت حداقلی انسانی استفاده شوند، تصور اینکه چگونه خطاها ممکن است رخ دهند، دشوار نیست.
یکی از مسائل اصلی که با استفاده از هوش مصنوعی در جنگ به آن اشاره شده این است که تفاوتی بین آنچه سیستمهای مجهز به هوش مصنوعی میتوانند انجام دهند و رویهها یا قوانین مربوط به نحوه استفاده انسانها از آن سیستمها وجود دارد.
چه کارهایی میتوان بهتر انجام داد؟
جنگ ایران نشان میدهد که ابزارهای هوش مصنوعی به طور فزایندهای در درگیریهای مسلحانه مورد استفاده قرار خواهند گرفت. در حالی که قوانین جنگ به تمام درگیریها اعمال میشود، بحث فزایندهای در مورد اینکه آیا هوش مصنوعی بعد جدیدی را معرفی میکند که نیاز به قوانین اضافی دارد، وجود دارد. به عنوان مثال، نگرانیهایی در مورد اینکه چگونه هوش مصنوعی فضای قضاوت انسانی لازم برای تعیینهای حقوق بشردوستانه بینالمللی را کاهش میدهد، مطرح شده است.
یک چارچوب بینالمللی الزامآور در کوتاهمدت بعید به نظر میرسد. با این حال، در منافع خود نیروهای نظامی است که قوانینی برای استفاده از هوش مصنوعی توسعه دهند. این به آنها کمک میکند تا از ریسک وابستگی بیش از حد به هدفگذاری پشتیبانیشده توسط هوش مصنوعی جلوگیری کنند، که میتواند خطاهایی را که منجر به هدفگیری نادرست و مرگ غیرنظامیان میشود، کاهش دهد.
تدوین این قوانین میتواند شامل ایجاد یک درک مشترک بین کشورها، نیروهای نظامی، شرکتهای فناوری، دانشگاهها و جامعه مدنی در مورد چگونگی بهبود همکاری انسان و ماشین باشد – یا اینکه چگونه انسانها و سیستمهای هوش مصنوعی میتوانند به گونهای تعامل کنند که هر یک در آنچه که در آن بهتر هستند، عمل کند. همچنین باید به چگونگی نظارت بر نقصهای مبتنی بر هوش مصنوعی و تقویت بهبود سیستمها در محیطهای پیچیده توجه شود.
تصویب قطعنامه سازمان ملل در دسامبر ۲۰۲۵ با عنوان «هوش مصنوعی در حوزه نظامی و پیامدهای آن برای صلح و امنیت بینالمللی» یک گام در جهت درست است. این قطعنامه بحثهای چندجانبه و چند ذینفع را تشویق میکند؛ یک جلسه سهروزه چند ذینفع که برای ژوئن ۲۰۲۶ برنامهریزی شده است، باید فرصتی برای تبادل غیررسمی و مشاوره در مورد استفاده از هوش مصنوعی در درگیریهای مسلحانه فراهم کند.
این بحثها راههایی برای ایجاد اعتماد فراهم میکند و میتواند راه را برای بهترین شیوههای مشترک هموار کند. بدون این، خطرات بالقوه استفاده از هوش مصنوعی در درگیریها جدی است.

