ظهور هدفگیری «هوشمند» چالشی جدی برای قوانین موجود جنگ به وجود میآورد.
در سال ۱۸۶۳، فرانسیس لیبر، حقوقدان پروسی-آمریکایی که به دستور آبراهام لینکلن مأمور تدوین قوانین جنگ زمینی شده بود، نوشت که هیچ سربازی نمیتواند دشمنی را که «سلاحهایش را زمین گذاشته» بکشد. جنگ، هرچقدر هم که وحشیانه باشد، باید عملی باشد که توسط یک عامل اخلاقی مسئول انجام شود که بتواند پاسخگوی آنچه انجام داده و به چه کسی انجام داده باشد.
کد لیبر ناقص بود. اجرای آن بهطور انتخابی نژادی بود و آرمانهای بشردوستانهاش در عمل بهطور مکرر زیر پا گذاشته میشد. اما پیشفرض بنیادین آن دو جنگ جهانی، تدوین کنوانسیونهای ژنو و توسعه هر سیستم تسلیحاتی از تفنگهای خودکار تا مهمات هدایتشونده دقیق را پشت سر گذاشت. پیشفرض آن این است که استفاده از نیروی کشنده نیاز به یک انسان دارد که بتوان شناسایی، بازجویی و پاسخگو کرد.
امروز، سیستمهای هدفگیری مبتنی بر هوش مصنوعی بهطور بنیادی این پیشفرض را نقض میکنند. برای اولین بار در تاریخ جنگهای تدوینشده، نهادی که تعیین میکند چه کسی میمیرد، نه میتواند به دادگاه احضار شود و نه میتواند دلایل خود را بیان کند. آنچه لیبر بهعنوان وضعیت دائمی درگیری مسلحانه فرض کرده بود – یک عامل اخلاقی در انتهای زنجیره کشتار – بهطور خاموش و عمدی از وجود خارج شده است.
فرماندهی مرکزی ایالات متحده (CENTCOM) ادعا کرد که عملیات «خشم حماسی»، عنوان رسمی جنگ آمریکا با ایران، بیش از هزار هدف را در یک بازه ۲۴ ساعته مورد هدف قرار داده است. CENTCOM به سیستمهای کمکیار هوش مصنوعی برای سرعت عملیاتی این عملیات اعتبار داد.
این نوع جدید جنگ، تغییر خطرناکی را در نحوه اتخاذ تصمیمات تحکیم میکند. مهمترین انتخابها درباره اینکه چه کسی میمیرد، چرا میمیرد و چه شواهدی مرگ آنها را توجیه میکند، اکنون به سیستمهای هوش مصنوعی واگذار شده است. این سیستمها بهگونهای استدلال میکنند که بهطور ساختاری غیرشفاف است، به این معنی که انسانهایی که بهطور فرضی در رأس کار هستند، نمیتوانند بهطور واقعی آن تصمیمات را درک یا توضیح دهند.
اما یک مشکل بنیادیتر وجود دارد. سیستمهای هدفگیری الگوریتمی تنها خطرات جدیدی از خطا ایجاد نمیکنند؛ بلکه یک محیط قانونی جدید تولید میکنند — میدانی که در آن مبنای هر تصمیم هدفگیری بهطور عمدی برای فرماندهانی که آن را مجاز میشمارند، وکلا که آن را ارزیابی میکنند و دادگاههایی که ممکن است در نهایت به آن رسیدگی کنند، ناشناخته است. الگوریتم به یک تولیدکننده تاریکی معرفتی تبدیل میشود که نمیتوان آن را مورد بازپرسی قرار داد.
قوانین درگیری مسلحانه بر یک فرض بنیادین استوار است که یک تصمیمگیرنده انسانی، در حمله به یک هدف، میتواند مبنای واقعی اعتقاد خود را که آن هدف یک هدف نظامی مشروع بوده است، بیان کند. این مبنای تحلیل تناسب و مسئولیت کیفری فردی است. اگر مبنای قابل بیان حذف شود، آنچه باقی میماند ساختاری از هنجارهای قانونی است که هیچ مکانیزم اجرایی ندارد.
سیستمهای هدفگذاری هوش مصنوعی مدرن این پایه را به شیوهای خاص شکستهاند. معماریهای یادگیری عمیق تصمیماتی تولید نمیکنند که با زنجیرههای قابل فهم استدلال همراه باشند. آنها خروجیها، نمرات احتمالی و طبقهبندیهای تهدید را تولید میکنند که از تعامل وزنی صدها میلیون پارامتر در مجموعههای داده آموزشی غیرشفاف به دست میآید.
یک مطالعه در سال ۲۰۲۳ در نشریه Nature Machine Intelligence نشان داد که حتی توسعهدهندگان مدل، با دسترسی کامل به معماری و وزنها، نمیتوانند بهطور قابل اعتمادی ترکیبهای ویژگی خاصی را که هر تصمیم طبقهبندی فردی را هدایت کرده است، بازسازی کنند. افسرانی که یک هدف تولیدشده توسط هوش مصنوعی را تأیید میکنند، هیچ چیزی را تأیید نمیکنند. آنها در حال تأیید یک توصیه هستند که مبنای آن را نمیتوانند بررسی کنند.
این موضوع است که شکاف اخلاقی بین تأمین و استقرار را بسیار مهم میسازد. اصول اخلاقی هوش مصنوعی وزارت دفاع ایالات متحده در سال ۲۰۲۰ وعده ردیابی و قضاوت انسانی را میدهد. آنچه که آنها توضیح نمیدهند این است که چه اتفاقی میافتد زمانی که این الزامات با سرعت عملیاتی در تضاد قرار میگیرند. بهطور ساده، انسانها قادر به تأیید کافی اهداف برای انجام ۱۰۰۰ حمله در روز نیستند.
مورد اسرائیل بهترین مثال مستند از این موضوع است. Lavender، که فهرستهایی از اهداف برای حملات اسرائیلی در غزه ایجاد کرد، یک برنامه سرکش نبود. این برنامه بهطور رسمی تأیید شده بود و به افسران حق داده شده بود که تا بیست غیرنظامی را برای هر عامل جوان حماس که سیستم شناسایی کرده بود، بکشند. فرآیندهای تأیید به چند ثانیه تأیید کاهش یافته بود، طبق گزارش ۹۷۲ Magazine. انسانهای “در حلقه” به سادگی تصمیمات الگوریتمی را با ظاهری از مجوز شستشو میکردند.
همچنین قابل توجه است که این الگو به کشورهای مشتری گسترش یافته است. ادبیات مربوط به جنگهای هوش مصنوعی بهطور نامتناسبی بر رقابت بین ایالات متحده و چین تمرکز دارد. آنچه که پنهان میکند این است که دکترین هوش مصنوعی ایالات متحده و ناتو و فرضیات زیرین آن در مورد تلفات غیرنظامی قابل قبول، تحت توافقهای فروش نظامی خارجی به نیروهای مسلح متحد صادر میشود بدون اینکه چارچوب نظارت اخلاقی که بهطور ظاهری آن را در کشور اصلی محدود میکند، وجود داشته باشد.
در درگیری قرهباغ کوهستانی در سال ۲۰۲۰، آذربایجان استفاده از پهپادها را گسترش داد و سلاحهای ترکی مجهز به هوش مصنوعی را به کار گرفت. در جنگ داخلی سودان، برخی طرفها از هوش مصنوعی برای کمک به هدفگذاری استفاده کردهاند و این گاهی به حملات به غیرنظامیان منجر شده است، طبق گزارش یک پنل کارشناسان سازمان ملل. سودان همچنین به شورای امنیت سازمان ملل گفته است که نیروهای سریع واکنش (RSF) سلاحهای با منشاء بریتانیایی را از طریق امارات متحده عربی به دست آوردهاند. برخی از این حملات شامل “حملات امضایی” بودند که اهداف را بر اساس الگوهای رفتاری به جای شناسایی فردی تأییدشده ایجاد میکنند.
تمام این مسائل با مشکل دادههای آموزشی تشدید میشود. ادعاهایی که هدفگیری هوش مصنوعی را دقیق میدانند، بر این فرض استوارند که دادههای آموزشی بازتاب واقعی از دستهبندیهایی است که ادعا میکند توصیف میکند. در عمل، این سیستمها از تجربیات قبلی عملیات یاد میگیرند که اشتباهات و فرضیات استراتژیک درگیریهای قبلی را کدگذاری میکند. در کمپینهای پس از ۱۱ سپتامبر آمریکا در پاکستان و یمن، حملات امضایی گاهی اوقات افرادی را هدف قرار میدادند به این دلیل که آنها مردان در سن نظامی بودند که در یک شهر خاص زندگی میکردند. هوش مصنوعی آموزشدیده بر اساس این کمپینها میتوانست این افراطها را بدون نیاز به دخالت انسانی تکرار کند.
در سال ۲۰۱۵، مرکز استیمسون دریافت که “حملات امضایی” رفتارهای غیرنظامی و نظامی را در برخی فرهنگها مخلوط میکند. این اختلاط به هوش مصنوعی هدفگیری کدگذاری شده است. لوری بلنک از دانشگاه اموری این را “فروپاشی مسئولیت زمانی” مینامد: خطاهای طبقهبندی در حین آموزش مدل، سالها قبل از یک حمله اتفاق میافتند. تا زمانی که کسی بمیرد، پیوند علّی بین اشتباه انسانی اولیه و مرگ غیرنظامی بهطور کامل مبهم شده است.
واکنش جامعه بینالمللی عمدتاً از گروه کنوانسیون سلاحهای متعارف (CCW) در مورد سلاحهای خودکار کشنده ناشی شده است که از سال ۲۰۱۴ تشکیل جلسه داده است. دوازده سال بعد، این گروه هنوز نتوانسته است یک ابزار الزامآور، تعریف یا مکانیزم انطباق برای سلاحهای مبتنی بر هوش مصنوعی ایجاد کند. بسیاری از کشورهای جنوب جهانی خواستار محدودیتهای قانونی هستند، اما قدرتهای غربی اصول داوطلبانه را ترجیح میدهند. این فرآیند انرژی جامعه مدنی را مصرف میکند در حالی که هیچ حکمرانی واقعی را ارائه نمیدهد.
مسئولیت معنادار به سه چیز نیاز دارد: افشای اجباری الگوریتمی برای بررسیهای پس از حمله، تحقیقات مستقل در مورد حوادث با دسترسی الزامآور (مدلسازی شده بر اساس قوانین هوانوردی ICAO) و مسئولیت در سطح معاهده برای آسیبهای غیرنظامی ناشی از هوش مصنوعی. همچنین به کنترلهای صادراتی بر هدفگیری هوش مصنوعی نیاز دارد، با نظارت واقعی بر استفاده نهایی. اگر این سیستمها به اندازهای دقیق بودند که سازندگانشان ادعا میکردند، کشورهای استفادهکننده از چنین نظارتی استقبال میکردند.
عمیقترین مشکل جنگهای الگوریتمی این نیست که کشتن را کارآمدتر میکند. این بهطور عمیق قوانین جنگ را تضعیف میکند و در نتیجه، درگیری را در استدلالهایش غیرشفاف، در نتایجش ویرانگر و از نظر ساختاری غیرقابل چالش میسازد. الگوریتم به یک عذر تبدیل نمیشود. بلکه به معماری تبدیل میشود که در آن مفهوم عذر خود بهطور کامل منسوخ میشود.

