در تاریخ ۲۸ فوریه ۲۰۲۶، یک عملیات نظامی مشترک ایالات متحده و اسرائیل تأسیسات هستهای ایران، زیرساختهای نظامی و اهداف رهبری را هدف قرار داد که بهطور رسمی به آن عملیات خشم حماسی نام داده شد. شبکههای اجتماعی به سرعت با تصاویر نادرست از این درگیری پر شد، از جمله انفجارهای عظیم در تل آویو، حملات موشکی موفق ایران به کشتیهای جنگی ایالات متحده و تصاویر ماهوارهای که ادعا میکردند آسیبهایی به پایگاههای نظامی آمریکایی در خلیج فارس وارد شده است.
برخی از این تصاویر از درگیریهای غیرمرتبط، از جمله در اوکراین، و حتی از بازیهای ویدئویی بازیافت شده بودند. با این حال، برخی از آنها بهطور کامل جعلی و با استفاده از ابزارهای هوش مصنوعی تولیدی که اکنون بهطور گستردهای در دسترس هستند، ایجاد شده بودند و میتوانند محتوای بسیار واقعیتری را بهصورت انبوه تولید کنند. چندین ناظر در این زمینه بر حجم بیسابقه محتوای تولید شده توسط هوش مصنوعی و افزایش پیچیدگی آن تأکید کردند.
در حالی که مطالب زیادی درباره پتانسیل تصاویر، ویدئوها و صداهای تولید شده توسط هوش مصنوعی برای پر کردن اکوسیستم اطلاعاتی و دشوارتر کردن تشخیص حقیقت نوشته شده است، محتوای تولید شده توسط هوش مصنوعی پیشتر تنها بخش کوچکی از محتوای گمراهکنندهای را که در وب در حال گردش بود، تشکیل میداد. در سال ۲۰۲۴، که بهعنوان “سال انتخابات” شناخته میشد، محتوای تولید شده توسط هوش مصنوعی—هرچند که وجود داشت—فرایندهای انتخاباتی در سراسر جهان را مختل نکرد. و در روزهای ابتدایی جنگ اسرائیل-حماس، محتوای هوش مصنوعی دوباره وجود داشت، اما تنها بخش کوچکی از ادعاهای گمراهکننده کلی و تصاویر بازیافت شدهای را که بهصورت آنلاین در حال گردش بودند، نمایندگی میکرد. آیا درگیری جاری در ایران واقعاً نمایانگر یک جهش قابل توجه در تصاویر تولید شده توسط هوش مصنوعی است؟ و اگر چنین است، چه چیزی میتواند چنین تغییری معنادار را توضیح دهد؟
چه چیزی ثابت مانده است
افزایش محتوای نادرست، گمراهکننده و بدون زمینه در زمان بحران پدیدهای جدید نیست. در سال ۲۰۲۳، در آغاز جنگ اسرائیل-حماس، ادعاهای نادرست به دلیل شکاف عرضه و تقاضا برای اطلاعات معتبر، مشوقهای مالی برای ویروسی شدن، پیامدهای تغییرات سیاستهای پلتفرم و تکهتکه شدن فضاهایی که خبرنگاران و پژوهشگران قبلاً برای کسب اطلاعات میدانی به آنها تکیه میکردند، به سرعت در وب منتشر شد.
بسیاری از دینامیکهایی که اکوسیستم اطلاعاتی را در آن زمان پیچیده کرده بودند، اکنون نیز وجود دارند. تأخیر بین تقاضا برای اطلاعات معتبر درباره درگیری و عرضه آن ادامه دارد و در این خلأ، محتوای نادرست در حال گردش است. مشوقهای مالی برای ویروسی شدن نیز تغییر نکردهاند. برنامههای تقسیم درآمد، از جمله در پلتفرم اجتماعی X، به کاربران بر اساس تعداد نمایشهایی که پستهایشان ایجاد میکند، پرداخت میکنند و این امر مشوق مالی مستقیمی برای تولید محتوای جنجالی که ویروسی میشود، ایجاد میکند. در دو هفته اول درگیری ایران، ویدئوهای تولید شده توسط هوش مصنوعی که حملات جعلی را به تصویر میکشیدند، میلیونها بازدید جلب کردند.1
پلتفرمهای X و Meta همچنین به سمت تعدیل محتوای جمعی پیش رفتهاند، که در تئوری چیز بدی نیست، اما در زمان بحران چالشبرانگیز میشود. بر خلاف قابلیتهای داخلی که میتوانند به منظور رسیدگی به افزایش در یک لحظه خاص منحرف یا مجدداً تخصیص یابند، جمعیت ممکن است در زمان بحران افزایش یابد اما ممکن است بهگونهای عمل نکند که منجر به تعدیل بهموقعتر شود. الگوریتمی که تصمیم میگیرد آیا یک یادداشت مفید است یا خیر، بدون توجه به زمینه، ثابت باقی میماند. و جمعیت ممکن است به ابزارهای تشخیص تخصصی مورد نیاز برای ارزیابی قابل اعتماد محتوای تولید شده توسط هوش مصنوعی دسترسی نداشته باشد—اگر این امر در این مرحله حتی ممکن باشد.
مقوله محتوای تولید شده توسط هوش مصنوعی چقدر بزرگ است؟
برای بررسی مقیاس استفاده از هوش مصنوعی تولیدی در درگیری ایران، دادههای Community Notes از X را ارزیابی کردم، که همچنان ابزاری بسیار قابل مشاهده برای تعدیل محتوا در سراسر پلتفرم است.2 در این برنامه، که زمینه جمعی را با توافق جامعه ترکیب میکند، کاربران X مسئول ارائه اطلاعات اضافی درباره پستها هستند، از جمله علامتگذاری پستهایی که ممکن است گمراهکننده، بدون زمینه، نادرست یا—بهطور مهم—تولید شده توسط هوش مصنوعی باشند. شرکتکنندگان در این برنامه میتوانند این زمینه اضافی را ارزیابی کنند و اگر تعداد کافی از شرکتکنندگان از “دیدگاههای متنوع”—که بر اساس الگوریتمی که دیدگاهها را بر اساس نحوه ارزیابی سایر یادداشتها استنباط میکند، تعریف میشود—توافق کنند که این افزودنی مفید است، به پست اضافه میشود. کاربران میتوانند به هر پستی زمینه اضافه کنند، اما به دلیل ماهیت مبتنی بر توافق این ابتکار، تنها بخش کوچکی از آن یادداشتها بهصورت عمومی قابل مشاهده خواهد بود. بهطور مهم، تمام دادههای Community Notes بهصورت عمومی در دسترس است که نگاهی به دامنه محتوای مورد مناقشه در سراسر پلتفرم ارائه میدهد.
با استناد به این دادهها، من مییابم که در هفتههای اخیر، محتوای مورد مناقشهای که در X بهعنوان استفاده از هوش مصنوعی تولیدی علامتگذاری شده، به بالاترین سطح خود از زمان در دسترس قرار گرفتن بیشتر ابزارهای هوش مصنوعی تولیدی رسیده است، با بیش از ۵۰۰۰ یادداشت که از محتوای تولید شده توسط هوش مصنوعی از آغاز درگیری اشاره میکند (شکل ۱).3 این پس از افزایش مداوم در دو ماه گذشته در یادداشتهایی که به اصطلاحات مرتبط با هوش مصنوعی اشاره دارند، رخ میدهد (از جمله افزایش محتوای مرتبط با هوش مصنوعی پس از حمله تروریستی در Bondi Beach و خشونتهای مرتبط با اداره مهاجرت و گمرک ایالات متحده در مینهسوتا). بهطور مهم، این هنوز نمایانگر درصد کوچکی از کل اکوسیستم اطلاعات مورد مناقشه در X است و به این معنا نیست که واقعاً از هوش مصنوعی استفاده شده است. همچنین احتمال دارد که “سود دروغگو” وجود داشته باشد، جایی که محتوای واقعی بهعنوان تولید شده توسط هوش مصنوعی رد میشود زیرا ناراحتکننده یا نامناسب است. با این حال، این امر افزایش حضور هوش مصنوعی را بهعنوان یک عامل پیچیدهکننده در یک اکوسیستم اطلاعاتی که از قبل مبهم است، نشان میدهد—روندی که بعید است با آسانتر شدن استفاده از این ابزارها و بیشتر شدن آنها در زندگی روزمره کاهش یابد.
مسئله لایهبندی اطلاعات
چندین تحول، لحظه کنونی را از بحرانهای اطلاعاتی پیشین متمایز میکند و ممکن است به افزایش فراوانی هوش مصنوعی تولیدی به عنوان بخشی از اکوسیستم اطلاعاتی مورد مناقشه در آینده کمک کند. شاید بهویژه قابل توجه این است که خود فناوری به طرز چشمگیری بهبود یافته و اکنون با چتباتهای مبتنی بر هوش مصنوعی که در نتایج جستجو و پلتفرمهایی مانند X گنجانده شدهاند، تکمیل شده است. این چتباتها به لایههای جدیدی در اکوسیستم اطلاعاتی تبدیل شدهاند. با وجود بهبودها، آنها ممکن است هنوز در پیگیری تحولات بهروز با چالش مواجه باشند، اما به طور فزایندهای به عنوان منبع اول اطلاعات مورد توجه قرار میگیرند. در درگیری کنونی، چتبات Grok در X، ویدیوهای بنیامین نتانیاهو، نخستوزیر اسرائیل، را به عنوان دیپفیک شناسایی کرده است که خود موجی از سردرگمی را ایجاد کرده و شایعاتی درباره مکان او را دامن زده است.
به پیچیدگی این وضعیت افزوده میشود که شناسایی محتوای تولید شده توسط هوش مصنوعی نیز به فضایی فزاینده پرچالش تبدیل میشود. شناسایی محتوای تولید شده توسط هوش مصنوعی به ابزارهایی وابسته است که کیفیت متغیری دارند و ممکن است نیاز به پیچیدگی فنی داشته باشند. “جمعیت” ممکن است به سطح مناسب شک و تردید برای به دست آوردن بینشهای مفید مجهز نباشد. در زمینه درگیری جاری در ایران، چندین پژوهشگر مستند کردهاند که چگونه محققان منبع باز از قابلیتهای ادعایی شناسایی هوش مصنوعی برای انکار تصاویر واقعی استفاده کردهاند و این امر عدم قطعیت درباره آنچه حقیقت است را افزایش میدهد.
این موضوع بهویژه در زمینهای نگرانکننده است که پلتفرمها به طور فزایندهای به جامعه تکیه میکنند تا محتوای گمراهکننده را ارزیابی و علامتگذاری کنند. در آغاز جنگ اسرائیل-حماس در اواخر ۲۰۲۳، X به عنوان پلتفرم اصلی برای استفاده از تعدیل مبتنی بر اجماع جامعه شناخته شد. از آن زمان، متا به طور فزایندهای این رویکرد را در فیسبوک، اینستاگرام و Threads اتخاذ کرده است در حالی که همزمان سرمایهگذاری خود در بررسی حقایق را کاهش داده است. در حالی که تعدیل مبتنی بر جامعه میتواند راهی حیاتی برای تقویت اعتماد ارائه دهد، اما همچنین با چالشهای قابل توجهی مواجه است، بهویژه در زمانهای بحران که تقاضا برای اطلاعات افزایش مییابد. با داشتن قابلیتهای بیشتر درونسازمانی، یک شرکت ممکن است منابع را به جایی که نیاز بهویژه حاد است، منتقل کند. با این حال، اگر یک شرکت به جمعیت تکیه کند، این اهرمها به طور فزایندهای دشوار میشوند.
شکل ۲ نشان میدهد که درصد یادداشتهایی که جامعه در نهایت به عنوان “مفید” ارزیابی کرده است، در طول زمان کاهش یافته است، حتی در حالی که درصد یادداشتهایی که به محتوای تولید شده توسط هوش مصنوعی اشاره دارند، از زمان انتخابات ۲۰۲۴ ایالات متحده به طور قابل توجهی افزایش یافته است، زمانی که این درصد تنها ۱.۵٪ از تمام محتوای مورد مناقشه را تشکیل میداد. در دو ماه گذشته، این درصد در حدود ۷%-۸% باقی مانده است، به این معنی که حدود یک در هر ۱۲ یادداشت نوشته شده در X به تولید هوش مصنوعی اشاره کرده است. در این زمینه، توانایی سیستم برای پیوست کردن یادداشتها به پستها به عنوان زمینه اضافی، به اندازه و مشارکت پایگاه داوطلبان خود (و توانایی آنها برای رسیدن به اجماع معنادار) محدود است و نه به حجم محتوایی که نیاز به بررسی دارد. در X و احتمالاً در سایر پلتفرمهایی که به تازگی از مشارکتهای مبتنی بر جامعه استفاده میکنند، تعدیل ممکن است نتواند با حجم محتوای گمراهکننده در زمان بحران مقیاس یابد زیرا پلتفرم نمیتواند کنترل کند که چه کسی با توانایی نوشتن و ارزیابی یادداشتها در هر روز خاص حضور پیدا میکند.
دیپفیکها به عنوان سلاح جنگ
اگرچه ظهور محتوای تولیدشده توسط هوش مصنوعی در X بخشی از رشد گستردهتری در چند ماه گذشته است، اما در یک جنبه، این درگیری کنونی قابل توجه است: محتوای تولیدشده توسط هوش مصنوعی به عنوان یک گسترش از تلاشهای جنگی ظهور کرده است. به مدت سالها، پژوهشگران پتانسیل محتوای تولیدشده توسط هوش مصنوعی را به عنوان بخشی از تلاشهای جنگی برای ایجاد سردرگمی، بیاعتبار کردن رهبران، تضعیف حمایت عمومی و قطبیسازی جامعه و سایر کاربردها شناسایی کردهاند.
در درگیری جاری، ماهیت چندجهتی جنگ اطلاعاتی مبتنی بر هوش مصنوعی، محیط اطلاعاتی را برای همه طرفهای درگیر پیچیده کرده است. با این حال، استفاده از تصاویر و ویدیوهای تولیدشده توسط هوش مصنوعی—شامل استفادههای آشکار و پنهان—ممکن است بهویژه برای رژیم ایران که در برابر نیروهای ترکیبی ایالات متحده و اسرائیل در وضعیت نظامی نامطلوبی قرار دارد، اهمیت خاصی داشته باشد. ایجاد هرج و مرج و تضعیف اعتماد به اهداف نظامی ایالات متحده ممکن است برای بقای رژیم اساسی باشد. بنابراین، جای تعجب نیست که ایران به هوش مصنوعی مولد روی آورده است تا کتابچه راهنمای جنگ اطلاعاتی موجود خود را تسریع بخشد. یک گزارش اخیر، یک کمپین هماهنگ دیپفیک با ویدیوها و زیرنویسهای یکسان، زمانهای پستگذاری همزمان و خوشههای هشتگ را به رژیم ایران نسبت داد. این موضوع به تلاشهای گذشته رژیم برای آزمایش استفاده از هوش مصنوعی مولد به منظور تأثیرگذاری بر افکار عمومی، از جمله در انتخابات ایالات متحده، پیوند دارد.
در درگیری کنونی، بینظمی آنلاین—که به خوبی از محتوای هوش مصنوعی استفاده میکند اما بهطور کامل تحت تأثیر آن نیست—ممکن است بهمنظور کمک به دولت ایران برای دوام آوردن در برابر تمایل دولت ترامپ به جنگ طراحی شده باشد. بخشی از جذابیت رئیسجمهور دونالد ترامپ در طول کمپین انتخاباتی 2024 ناشی از وعدهاش برای قرار دادن “آمریکا در اولویت” و پایان دادن به “جنگهای ابدی” گذشته بود. بسیاری از حامیان او انتخابات را به عنوان انتخابی بین جنگ جهانی سوم و غذا و بنزین ارزانتر مطرح کردند. اگرچه پایگاه او در حال حاضر از تلاشهای جنگی حمایت میکند، اما نشانههایی از تفرقه در حال ظهور است. بهطور کلی، این درگیری به شدت قطبیکننده است و یک کمپین نظامی طولانیمدت با وعدههای انتخاباتی رئیسجمهور در تضاد خواهد بود.
در این زمینه، بسیاری از محتوایی که به نفع ایران—و گاهی بهطور مستقیم توسط رژیم ایران—ترویج میشود، بهمنظور نمایش قدرت نظامی که ندارد و بزرگنمایی خسارات واردشده به ایالات متحده و اسرائیل طراحی شده است. با غرق کردن اکوسیستم اطلاعاتی، تهران امیدوار است که سردرگمی ایجاد کند و شاید مهمتر از همه، نارضایتی عمومی را تسریع بخشد و حمایت عمومی که در حال حاضر در آستانه تزلزل است را تضعیف کند. هوش مصنوعی این کار را ارزانتر، بهطور بالقوه جذابتر و سریعتر از گذشته میسازد.
نگاهی به آینده
تقارن قابلیتهای بهبود یافته هوش مصنوعی، اکوسیستم اطلاعاتی لایهای، کاهش بیشتر در تعدیل محتوا و یک بازیگر دولتی بهطور خاص انگیزهدار، شرایطی را ایجاد کرده است که گفتوگوی عمومی آگاهانه را در طول درگیریهای مسلحانه به چالش میکشد. در این زمینه، سیاسی شدن تعدیل محتوا با نیاز فعال به آن در حال برخورد است، زیرا محتوای تولیدشده توسط هوش مصنوعی بهطور فزایندهای به عنوان یک گسترش در درگیریهای مسلحانه رایج میشود.
درگیری ایران ارزش ملموس تعدیل محتوا را نشان میدهد. حداقل، چنین تعدیلی باید بهطور ساختاری مناسبتر برای شناسایی عدم قطعیت یا قابلیت اعتماد منابع در شرایط بحران باشد، که دقیقاً در لحظهای رخ میدهد که افکار عمومی بیشترین انعطافپذیری و بیشترین هدفگیری را از سوی یک دشمن خارجی دارد. این همچنین اهمیت سرمایهگذاری در قابلیتهای شناسایی قابل اعتماد را تأکید میکند، بهویژه در حالی که مدلها به بهبود خود ادامه میدهند و توجه بیشتری به فرآیندهای تأیید برای محتوای دیجیتال معطوف میشود. دادههای ارائهشده توسط پلتفرم Community Notes در X نگاهی به درک مقیاس چالش ارائه میدهد، که بهطور فوقالعادهای دشوار است که کمیسازی شود، اما همچنین شکاف بین آنچه سیستمهای کنونی میتوانند انجام دهند و آنچه لحظه نیاز دارد را نشان میدهد.

