في 28 فبراير 2026، شنت حملة عسكرية مشتركة بين الولايات المتحدة وإسرائيل استهدفت المنشآت النووية الإيرانية والبنية التحتية العسكرية والأهداف القيادية في ما أطلق عليه رسميًا اسم عملية الغضب الملحمي. سرعان ما غمرت وسائل التواصل الاجتماعي مقاطع مزيفة من الصراع، بما في ذلك انفجارات ضخمة في تل أبيب، وضربات صاروخية إيرانية ناجحة على السفن الحربية الأمريكية، وصور فضائية يُزعم أنها تظهر أضرارًا في القواعد العسكرية الأمريكية في الخليج.
بعض هذه المقاطع تم إعادة تدويره من صراعات غير مرتبطة، بما في ذلك في أوكرانيا، وحتى من ألعاب الفيديو. ومع ذلك، كان بعضها مزيفًا تمامًا ومُنشأً باستخدام أدوات الذكاء الاصطناعي التوليدية التي أصبحت الآن شائعة، والتي يمكنها إنتاج محتوى أكثر واقعية على نطاق واسع. وأكد العديد من المراقبين في هذا المجال على الحجم غير المسبوق للمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي وزيادة تعقيده.
بينما كُتب الكثير عن إمكانية أن تغمر الصور والفيديوهات والصوتيات التي تم إنشاؤها بواسطة الذكاء الاصطناعي النظام المعلوماتي وتجعل من الصعب بشكل متزايد فرز ما هو صحيح، لم يشكل المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي سابقًا سوى جزء صغير من المحتوى المضلل المتداول عبر الإنترنت. خلال عام 2024، الذي اعتُبر “عام الانتخابات”، كان المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي موجودًا، لكنه لم يعطل العمليات الانتخابية حول العالم. وفي الأيام الأولى من حرب إسرائيل وحماس، كان المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي موجودًا مرة أخرى، لكنه مثل فقط جزءًا صغيرًا من الادعاءات المضللة والصور المعاد تدويرها المتداولة عبر الإنترنت. هل يمثل الصراع الحالي المستمر في إيران حقًا قفزة كبيرة في الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي؟ وإذا كان الأمر كذلك، فما الذي قد يفسر هذا التحول المعنوي؟
ما الذي يبقى كما هو
إن الزيادة في المحتوى الزائف والمضلل وغير السياقي خلال أوقات الأزمات ليست جديدة. في عام 2023، مع بداية حرب إسرائيل وحماس، غمرت الادعاءات الزائفة الإنترنت بسبب فجوة العرض والطلب على المعلومات الموثوقة، والحوافز المالية للانتشار، وعواقب تغييرات سياسة المنصات، وتجزئة المساحات التي كان الصحفيون والباحثون يعتمدون عليها سابقًا للحصول على رؤى من الأرض.
تظل العديد من الديناميكيات التي أعقدت النظام المعلوماتي آنذاك موجودة الآن. لا يزال الفارق بين الطلب على المعلومات الموثوقة حول الصراع وعرضها قائمًا، وفي هذه الفجوة، يتداول المحتوى الزائف. كما أن الحوافز المالية للانتشار لم تتغير أيضًا. برامج مشاركة الإيرادات، بما في ذلك على المنصة الاجتماعية X، تدفع للمستخدمين بناءً على الانطباعات التي تولدها منشوراتهم، مما يخلق حافزًا ماليًا مباشرًا لإنتاج محتوى مثير ينتشر بشكل واسع. خلال الأسبوعين الأولين من الصراع الإيراني، حصلت مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي تصور هجمات مزيفة على ملايين المشاهدات.
كما أن منصات X وMeta قد اتجهت أكثر نحو تعديل المحتوى المستند إلى الجماهير، وهو، من الناحية النظرية، ليس شيئًا سيئًا، لكنه يصبح تحديًا في أوقات الأزمات. على عكس القدرات الداخلية، التي يمكن تحويلها أو إعادة تخصيصها لمعالجة زيادة في لحظة معينة، قد تنمو الجماهير في أوقات الأزمات ولكن قد لا تفعل ذلك بطريقة تؤدي إلى تعديل أكثر توقيتًا. تظل الخوارزمية التي تقرر ما إذا كانت الملاحظة مفيدة كما هي بغض النظر عن السياق. وقد لا تكون الجماهير لديها إمكانية الوصول إلى أدوات الكشف المتخصصة اللازمة لتقييم المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي بشكل موثوق – إذا كان ذلك ممكنًا حتى في هذه المرحلة.
ما مدى خطورة مشكلة المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي؟
لاستكشاف نطاق استخدام الذكاء الاصطناعي التوليدي في الصراع الإيراني، قمت بتقييم بيانات Community Notes من X، التي تظل أداة مرئية للغاية لتعديل المحتوى عبر المنصة. في هذا البرنامج، الذي يجمع بين السياق المستند إلى الجماهير مع توافق المجتمع، يكون مستخدمو X مسؤولين عن تقديم معلومات إضافية حول المنشورات، بما في ذلك الإشارة إلى المنشورات التي قد تكون مضللة أو غير سياقية أو زائفة أو – وهذا مهم – تم إنشاؤها بواسطة الذكاء الاصطناعي. يمكن للمشاركين في البرنامج بعد ذلك تقييم هذا السياق المضاف، وإذا اتفق عدد كافٍ من المشاركين من “وجهات نظر متنوعة” – التي تُعرف بناءً على خوارزمية تستنتج وجهات النظر بناءً على كيفية تقييم المساهمين لملاحظات أخرى – على أن الإضافة مفيدة، يتم إضافتها إلى المنشور. يمكن للمستخدمين إضافة سياق إلى أي منشور، ولكن بسبب الطبيعة القائمة على التوافق للمبادرة، فإن نسبة صغيرة فقط من تلك الملاحظات ستصبح مرئية للجمهور. من المهم أن جميع بيانات Community Notes تُنشر علنًا، مما يوفر نافذة على نطاق المحتوى المتنازع عليه عبر المنصة.
استنادًا إلى هذه البيانات، أجد أنه في الأسابيع الأخيرة، ارتفع المحتوى المتنازع عليه الذي تم الإشارة إليه على X باعتباره يستخدم الذكاء الاصطناعي التوليدي إلى أعلى نقطة له منذ أن أصبحت أدوات الذكاء الاصطناعي التوليدية متاحة على نطاق واسع، مع أكثر من 5000 ملاحظة تشير إلى المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي منذ بداية الصراع. يتبع ذلك زيادة ثابتة على مدار الشهرين الماضيين في الملاحظات التي تشير إلى مصطلحات مرتبطة بالذكاء الاصطناعي (بما في ذلك زيادة في المحتوى المتعلق بالذكاء الاصطناعي في أعقاب الهجوم الإرهابي على شاطئ بوندي والعنف المتعلق بإنفاذ قوانين الهجرة والجمارك الأمريكية في مينيسوتا). من المهم أن يمثل هذا لا يزال نسبة صغيرة من النظام المعلوماتي المتنازع عليه بشكل عام على X ولا يعني أن الذكاء الاصطناعي قد تم استخدامه بالفعل. من المحتمل أيضًا أن تكون “عائدات الكاذب”، حيث يتم تجاهل المحتوى الحقيقي باعتباره تم إنشاؤه بواسطة الذكاء الاصطناعي لأنه غير مريح أو غير ملائم، تلعب دورها. ومع ذلك، فإن ذلك يظهر زيادة انتشار الذكاء الاصطناعي كعامل معقد في نظام معلوماتي مشوش بالفعل – وهو اتجاه من غير المرجح أن يتراجع مع سهولة استخدام هذه الأدوات واندماجها بشكل أكبر في الحياة اليومية.
مشكلة تداخل المعلومات
تتميز اللحظة الحالية بعدة تطورات تميزها عن الأزمات المعلوماتية السابقة وقد تسهم في زيادة انتشار الذكاء الاصطناعي التوليدي كجزء من النظام المعلوماتي المتنازع عليه في المستقبل. ربما الأبرز هو أن التكنولوجيا نفسها قد تحسنت بشكل كبير، وأصبحت الآن مدعومة بروبوتات محادثة تعتمد على الذكاء الاصطناعي مدمجة في نتائج البحث ومنصات مثل X. لقد أصبحت هذه الروبوتات طبقات جديدة في النظام المعلوماتي. على الرغم من التحسينات، قد لا تزال تواجه صعوبة في مواكبة التطورات في الوقت الحقيقي، لكنها تُعتبر بشكل متزايد كمصدر أول للمعلومات. في النزاع الحالي، قام روبوت المحادثة Grok، التابع لـ X، بتحديد مقاطع فيديو لرئيس الوزراء الإسرائيلي بنيامين نتنياهو على أنها مزيفة، مما أدى إلى موجة من الارتباك وزاد من الشائعات حول مكانه.
لإضافة تعقيد إلى الوضع، أصبح الكشف عن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي أيضًا مجالًا متزايد التعقيد. يعتمد الكشف عن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي على أدوات ذات جودة متغيرة حيث قد تكون هناك حاجة إلى مستوى من التعقيد الفني. قد لا يكون “الجمهور” مجهزًا لاستخدام هذه الأدوات بمستوى الشك المناسب المطلوب للحصول على رؤى مفيدة. في سياق النزاع المستمر في إيران، وثق العديد من الباحثين الطريقة التي استخدم بها المحققون ذوو المصادر المفتوحة قدرات الكشف عن الذكاء الاصطناعي المزعومة لنفي الصور الأصلية، مما زاد من عدم اليقين حول ما هو صحيح.
هذا الأمر مقلق بشكل خاص في سياق حيث تميل المنصات بشكل متزايد إلى الاعتماد على المجتمع لتقييم وإبلاغ المحتوى المضلل. في بداية حرب إسرائيل وحماس في أواخر عام 2023، كانت X هي المنصة الرئيسية التي اعتمدت على الاعتدال المجتمعي القائم على الإجماع. منذ ذلك الحين، اعتمدت ميتا بشكل متزايد هذا النهج عبر فيسبوك وإنستغرام وثريدز، بينما قلصت في الوقت نفسه استثماراتها في التحقق من الحقائق. بينما يمكن أن يوفر الاعتدال المدفوع من المجتمع مسارًا حيويًا نحو تعزيز الثقة، فإنه يواجه أيضًا تحديات كبيرة، خاصة في أوقات الأزمات عندما يكون هناك طلب متزايد على المعلومات. مع وجود المزيد من القدرات الداخلية، قد تقوم الشركة بتحويل الموارد إلى حيث تكون الحاجة ملحة بشكل خاص. ومع ذلك، إذا اعتمدت الشركة على الجمهور، تصبح هذه الآليات أكثر صعوبة في التنفيذ.
تظهر الشكل 2 أن نسبة الملاحظات التي قيمها المجتمع في النهاية على أنها “مفيدة” قد انخفضت بمرور الوقت، حتى مع زيادة نسبة الملاحظات التي تشير إلى المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي بشكل كبير منذ انتخابات الولايات المتحدة في عام 2024، عندما كانت تمثل فقط 1.5% من جميع المحتويات المتنازع عليها. على مدار الشهرين الماضيين، كانت النسبة تتراوح حول 7%-8%، مما يعني أن حوالي واحد من كل 12 ملاحظة مكتوبة على X قد أشارت إلى إنشاء الذكاء الاصطناعي. في ظل هذه الخلفية، تظل قدرة النظام على إرفاق الملاحظات بالمنشورات كخلفية إضافية مقيدة بحجم وتفاعل قاعدة المتطوعين المساهمين (وقدرتهم على الوصول إلى توافق ذي مغزى) مقارنة بحجم المحتوى الذي يحتاج إلى مراجعة. على X، ومن المحتمل على منصات أخرى تعتمد حديثًا على المساهمات المجتمعية، قد يكون الاعتدال غير قادر على التوسع مع كمية المحتوى المضلل خلال أزمة لأن المنصة لا تستطيع التحكم في من يظهر مع القدرة على كتابة وتقييم الملاحظات في أي يوم معين.
التزييف العميق كسلاح في الحرب
على الرغم من أن ظهور المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي عبر X هو جزء من نمو أوسع على مدار الأشهر القليلة الماضية، إلا أن النزاع الحالي يبرز في جانب واحد: فقد أصبح المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي امتدادًا للجهود الحربية. لقد أدرك الباحثون لسنوات إمكانية استخدام المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي كجزء من الجهود الحربية لإثارة الارتباك، وتشويه سمعة القادة، وتقويض الدعم الشعبي، وت polarize المجتمع، من بين تطبيقات أخرى.
في النزاع المستمر، فإن الطبيعة متعددة الاتجاهات للحرب المعلوماتية المدعومة بالذكاء الاصطناعي قد أعقدت البيئة المعلوماتية لجميع الأطراف المعنية. ومع ذلك، فإن استخدام الصور ومقاطع الفيديو التي يتم إنشاؤها بواسطة الذكاء الاصطناعي – بما في ذلك الاستخدامات العلنية والسرية – قد يكون مهمًا بشكل خاص للنظام الإيراني، الذي يعاني من عجز عسكري تقليدي أمام القوات المشتركة للولايات المتحدة وإسرائيل. قد يكون إثارة الفوضى وتقويض الثقة في الأهداف العسكرية للولايات المتحدة أمرًا أساسيًا لبقاء النظام. لذلك، ليس من المستغرب أن تلجأ إيران إلى الذكاء الاصطناعي التوليدي لتسريع كتابها الحربي المعلوماتي القائم. وقد تتبعت إحدى التقارير الأخيرة حملة عميقة من التزييف المتزامن مع مقاطع فيديو وتعليقات متطابقة، ونوافذ نشر متزامنة، ومجموعات هاشتاغ إلى النظام الإيراني. يأتي هذا بعد محاولات سابقة من النظام للتجريب باستخدام الذكاء الاصطناعي التوليدي لمحاولة التأثير على الرأي العام، بما في ذلك حول الانتخابات الأمريكية.
في النزاع الحالي، قد يكون الفوضى على الإنترنت – التي تستفيد بشكل جيد من المحتوى ولكنها ليست مدفوعة بالكامل بمحتوى الذكاء الاصطناعي – مصممة لمساعدة الحكومة الإيرانية على الصمود أمام استعداد إدارة ترامب للقتال. جزء من جاذبية الرئيس دونالد ترامب خلال الحملة الانتخابية الرئاسية لعام 2024 stemmed من وعده بوضع “أمريكا أولاً” وإنهاء “الحروب الأبدية” في الماضي. وقد صاغ العديد من مؤيديه الانتخابات كخيار بين الحرب العالمية الثالثة وطعام وغاز أرخص. على الرغم من أن قاعدته لا تزال تدعم جهود الحرب في الوقت الحالي، إلا أن هناك بالفعل علامات على الانقسام. بشكل أوسع، فإن النزاع يثير الانقسام بشكل كبير، وستتعارض حملة عسكرية مطولة مع وعود الحملة الانتخابية للرئيس.
في هذا السياق، فإن الكثير من المحتوى المدعوم لإيران – وأحيانًا بشكل مباشر من قبل النظام الإيراني – مصمم لإظهار القوة العسكرية التي لا تمتلكها والمبالغة في الأضرار التي لحقت بالولايات المتحدة وإسرائيل. من خلال غمر النظام البيئي المعلوماتي، تأمل طهران في زرع الارتباك، وربما الأهم من ذلك، تسريع الاستياء العام وتقويض الدعم العام المتزعزع بالفعل للحملة العسكرية الأمريكية. يجعل الذكاء الاصطناعي الأمر أرخص، وربما أكثر إقناعًا، وأسرع من الماضي.
نحو المستقبل
إن تقارب قدرات الذكاء الاصطناعي المحسنة، وبيئة المعلومات متعددة الطبقات، وتراجع إضافي في تعديل المحتوى، وفاعل دولة مدفوع بشكل فريد قد خلق ظروفًا تتحدى النقاش العام المستنير أثناء النزاع المسلح. في ظل هذه الخلفية، فإن تسييس تعديل المحتوى يتصادم مع الحاجة النشطة إليه مع تزايد انتشار المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي في النزاع المسلح.
تظهر أزمة إيران القيمة الملموسة لتعديل المحتوى. على الأقل، يجب أن يكون هذا التعديل أكثر ملاءمة هيكليًا للإشارة إلى عدم اليقين أو موثوقية المصدر في ظروف الأزمات، التي تحدث بالضبط في اللحظة التي يكون فيها الرأي العام الأكثر قابلية للتغيير والأكثر استهدافًا بنشاط من قبل خصم أجنبي. كما يبرز أهمية الاستثمارات في قدرات الكشف الموثوقة، خاصة مع استمرار تحسين النماذج، وزيادة الاهتمام بعمليات التحقق من المحتوى الرقمي. توفر البيانات المقدمة من منصة ملاحظات المجتمع لـ X لمحة عن فهم حجم التحدي، الذي لا يزال من الصعب للغاية قياسه، لكنها تكشف أيضًا عن الفجوة بين ما يمكن أن تفعله الأنظمة الحالية وما يتطلبه الوضع.

