كيف تم عكس السياسة الأمريكية الجديدة – التي يتم بموجبها وضع الذكاء الاصطناعي كعنصر أساسي في سلسلة القيادة، وجمع المعلومات الاستخباراتية، وتخطيط العمليات المعقدة – في ساحة المعركة، وما هي الاستنتاجات التي يجب استخلاصها في إسرائيل؟
في السنوات الأخيرة، تطور دمج الذكاء الاصطناعي في أنظمة الدفاع من أداة لدعم القرار إلى بنية تحتية استراتيجية تشكل سلوك الحرب. في إطار هذا الاتجاه، يمثل اعتماد البنتاغون لعقيدة الذكاء الاصطناعي أولاً تحولًا مفاهيميًا كبيرًا من الدمج المحدود لأنظمة الذكاء الاصطناعي إلى نهج نظامي يصبح فيه الذكاء الاصطناعي عنصرًا أساسيًا في سلسلة القيادة، وفي جمع وتحليل المعلومات الاستخباراتية، وفي تخطيط العمليات متعددة المسارح. تستعرض هذه المقالة هذه العقيدة الأمريكية الجديدة وآثارها على طبيعة الحرب في عصر الخوارزميات. ثم تقدم دراسة حالة حديثة – استخدام أنظمة الذكاء الاصطناعي خلال الحرب بين الولايات المتحدة وإيران – والتي توضح كيف يتم تنفيذ هذه المفاهيم في ساحة المعركة عمليًا. أخيرًا، تقدم تداعيات سياسية لإسرائيل، مشيرة إلى الحاجة للانتقال من نهج يركز على تطوير تقنيات الذكاء الاصطناعي المنفصلة إلى نهج نظامي يتم فيه دمج الذكاء الاصطناعي بشكل منهجي في المؤسسة الدفاعية. بالإضافة إلى ذلك، هناك حاجة لتعزيز التعاون الاستراتيجي مع الولايات المتحدة في هذا المجال، إلى جانب تشكيل أطر حوكمة ومعايير للاستخدام المسؤول للذكاء الاصطناعي في الأنظمة العسكرية.
عقيدة الذكاء الاصطناعي أولاً في البنتاغون
لقد اعتمدت وزارة الحرب الأمريكية في الأشهر الأخيرة مفهومًا استراتيجيًا يهدف إلى جعل الذكاء الاصطناعي ركيزة مركزية في النشاط العسكري. تستند عقيدة “الذكاء الاصطناعي أولاً” إلى افتراض أن الميزة الاستراتيجية في الحروب المستقبلية ستنبع إلى حد كبير من قدرة الدول على دمج الخوارزميات المتقدمة في جوهر أنظمة اتخاذ القرار العسكري.
وفقًا لاستراتيجية الذكاء الاصطناعي في البنتاغون، يُنظر إلى المنافسة في هذا المجال كجزء من المنافسة الجيوستراتيجية الأوسع بين القوى العظمى. في هذا الإطار، تسعى الولايات المتحدة إلى الحفاظ على ما يعرفه الوثيقة بـ “هيمنة الذكاء الاصطناعي العسكري” بل وتوسيعها – التفوق العسكري القائم على الجمع بين الابتكار التكنولوجي، والبيانات التشغيلية، وصناعة الذكاء الاصطناعي المدنية المتقدمة. وبناءً عليه، توجيه الاستراتيجية فروع الدفاع الأمريكية لتصبح “قوة قتالية قائمة على الذكاء الاصطناعي” من خلال تسريع التجارب مع النماذج المتقدمة، وإزالة الحواجز البيروقراطية أمام دمج التقنيات الجديدة، وإعطاء الأولوية للميزة غير المتناظرة في مجالات البيانات وقوة الحوسبة.
يؤكد الوثيقة أن الولايات المتحدة تتمتع بمزايا هيكلية فريدة في هذا المجال، بما في ذلك نظام ابتكار رائد، وصناعة تكنولوجيا متقدمة، وأسواق رأس المال التي تدعم تطوير التقنيات الرائدة، ومستودعات البيانات التشغيلية التي تراكمت على مدى عقود من النشاط العسكري والاستخباراتي. يهدف دمج هذه المزايا إلى تمكين الولايات المتحدة من تجاوز منافسيها في سباق التسلح الخوارزمي.
تعدّ دمج الذكاء الاصطناعي في عملية اتخاذ القرار التشغيلي جزءًا مركزيًا من هذا المفهوم – بدءًا من معالجة المعلومات الاستخباراتية إلى تخطيط أنظمة القتال المعقدة. كجزء من خارطة الطريق الاستراتيجية، تم تحديد عدة “مشاريع رائدة” لإظهار السرعة الجديدة لتنفيذ تكنولوجيا الذكاء الاصطناعي. تشمل هذه المشاريع أنظمة إدارة المعارك القائمة على الذكاء الاصطناعي، وتطوير قدرات لتنسيق أسراب من الأنظمة غير المأهولة، والاستخدام الواسع لمحاكاة العمليات القائمة على الذكاء الاصطناعي لتخطيط الأنظمة العسكرية.
لا يقتصر تنفيذ المفهوم على التصريحات الاستراتيجية فقط. بدأ البنتاغون في نشر منصات مخصصة لاستخدام الذكاء الاصطناعي داخل المؤسسة الدفاعية، مثل GenAI.mil – وهي منصة آمنة تتيح دمج النماذج التوليدية وأدوات التحليل على الشبكات السرية وغير السرية. يهدف هذا التحرك إلى توسيع الوصول إلى أدوات الذكاء الاصطناعي لملايين من أفراد الجيش والموظفين الحكوميين ودمج قدرات الذكاء الاصطناعي في العمليات اليومية لنظام الدفاع.
تعكس العقيدة فهمًا أن سرعة معالجة المعلومات وتقليل دورات اتخاذ القرار – من المستشعر إلى القائد – ستصبح عوامل حاسمة في النزاعات المستقبلية. في هذا السياق، يُنظر إلى الذكاء الاصطناعي كعامل مضاعف للقوة يجعل من الممكن التعامل مع الفائض المتزايد من المعلومات في ساحة المعركة الحديثة.
من دعم الاستخبارات إلى تسريع العمليات
إن دمج الذكاء الاصطناعي في أنظمة الدفاع بدأ في البداية في مجالات الصيانة التنبؤية، وتحليل المعلومات الاستخباراتية، والدعم الإداري. ومع ذلك، تحت مفهوم الذكاء الاصطناعي أولاً، يتوسع دور هذه الأنظمة، وتصبح أدوات تمكّن من تسريع العمليات التشغيلية. النماذج المتقدمة قادرة الآن على دمج كميات هائلة من البيانات من مجموعة متنوعة من أجهزة الاستشعار، وأنظمة الاستخبارات، والمعلومات المفتوحة المصدر، وإنتاج رؤى في الوقت الحقيقي منها. تتيح هذه القدرات للقادة تحديد الأولويات في الأهداف، وفحص سيناريوهات تشغيلية مختلفة، وإجراء تقييمات للوضع بسرعة أكبر بكثير من العمليات التحليلية التقليدية التي يقوم بها البشر. هذا التطور يغير طبيعة اتخاذ القرار العسكري. بدلاً من أن تكون الأنظمة مجرد دعم تحليلي، يصبح الذكاء الاصطناعي مكونًا نشطًا يعزز التخطيط وإدارة أنظمة القتال المعقدة.
دراسة حالة: استخدام الذكاء الاصطناعي في الصراع مع إيران
تقدم المواجهة بين الولايات المتحدة وإيران مثالًا ملموسًا على ترجمة مفهوم الذكاء الاصطناعي أولاً إلى نشاط عملي. خلال الضربات ضد الأهداف الإيرانية، تم الإبلاغ عن أن الجيش الأمريكي استخدم أنظمة الذكاء الاصطناعي – بما في ذلك نموذج اللغة الكبير من Anthropic، Claude – لتحليل المعلومات الاستخباراتية، وتحديد الأهداف، وتشغيل المحاكاة التشغيلية. وفقًا للتقارير في وسائل الإعلام الأمريكية، دمجت القيادة المركزية الأمريكية (CENTCOM) النموذج جنبًا إلى جنب مع أنظمة الأسلحة التقليدية، بما في ذلك صواريخ توماهوك، والطائرات الشبح، والطائرات المسيرة المعتمدة على الذكاء الاصطناعي. ساعد النظام في معالجة البيانات الكبيرة المستلمة من أنظمة الاستشعار المختلفة في الوقت الحقيقي، مما قلل من الوقت المطلوب لتحليل المعلومات الاستخباراتية وتوليد الرؤى التشغيلية. كما تم استخدام الذكاء الاصطناعي لتشغيل سيناريوهات “ماذا لو”، مما يمكّن مخططي العمليات من فحص مسارات عمل مختلفة في وقت قصير نسبيًا. تؤكد هذه القدرات على إمكانية الذكاء الاصطناعي في تسريع عمليات اتخاذ القرار في حالات القتال المعقدة.
بين ساحة المعركة ووادي السيليكون: النزاع الأخلاقي والقانوني
رافق التبني المتسارع لأنظمة الذكاء الاصطناعي في المؤسسة الدفاعية الأمريكية نزاعات كبيرة بين الحكومة وشركات التكنولوجيا. عارضت شركة Anthropic، التي زودت النموذج المستخدم في العمليات القتالية، بعض مطالب البنتاغون لإزالة آليات الأمان المتعلقة بالاستخدامات مثل الأسلحة المستقلة وأنظمة المراقبة على نطاق واسع – ورفضت بشكل خاص إزالة جميع تدابير الأمان بحيث يكون النموذج متاحًا للجيش لأي استخدام قانوني. جادلت الشركة بأن أنظمة الذكاء الاصطناعي ليست موثوقة بما يكفي لتشغيل أسلحة مستقلة بالكامل، وأن استخدام الذكاء الاصطناعي للمراقبة الجماعية للمدنيين ليس شرعيًا أخلاقيًا أو تنظيميًا؛ وبالتالي، وضعت “خطًا أحمر” على هذه المطالب. من ناحية أخرى، أصدر البنتاغون إنذارًا لإزالة تلك القيود وهدد حتى بتصنيف Anthropic كـ “خطر في سلسلة التوريد” إذا لم تستجب، وهو خطوة غير معتادة بشكل خاص.
تعكس هذه النزاعات التوترات الأوسع بين اعتبارات الأمن القومي والقضايا الأخلاقية والقانونية والإدارية في مجال الذكاء الاصطناعي. داخل صناعة التكنولوجيا نفسها، تطورت مناقشات داخلية، إلى جانب معارضة من الموظفين لبعض الاستخدامات العسكرية لأنظمة الذكاء الاصطناعي.
الآثار الاستراتيجية: نحو الحرب الخوارزمية
استخدام أنظمة الذكاء الاصطناعي في النزاعات العسكرية يمثل مرحلة جديدة في تطور الحروب الحديثة. بينما كانت أنظمة الذكاء الاصطناعي في السابق تعمل كأدوات دعم، فإنها أصبحت الآن مضاعفات قوة تمكّن من معالجة المعلومات على نطاق وسرعة لا يمكن تحقيقها بواسطة الأنظمة البشرية وحدها. في الوقت نفسه، تثير هذه التكاملات أيضًا أسئلة معقدة تتعلق بالمسؤولية، والرقابة، والأطر القانونية. مع تزايد تأثير أنظمة الذكاء الاصطناعي على القرارات التشغيلية – بما في ذلك القرارات المتعلقة باستخدام القوة – ستكون هناك حاجة لإجراء تعديلات في القانون الدولي، وقواعد الاشتباك، وآليات المساءلة.
الآثار السياسية والأمنية على إسرائيل
تظهر التجربة الأمريكية أن التكامل المنهجي للذكاء الاصطناعي في جوهر النشاط العسكري يغير قواعد اللعبة في ساحة المعركة. بالنسبة لإسرائيل، التي تتمتع بميزة كبيرة في مجال الابتكار الدفاعي، يحمل هذا السياق عدة تداعيات استراتيجية.
أولاً، هناك حاجة للانتقال من نهج يركز على تطوير تقنيات الذكاء الاصطناعي المنفصلة إلى نهج نظامي مشابه لعقيدة الذكاء الاصطناعي الأمريكية، حيث يتم دمج الذكاء الاصطناعي بشكل منهجي في سلسلة القيادة، وعمليات معالجة المعلومات الاستخباراتية، وتخطيط العمليات متعددة المسارح. يتطلب هذا الانتقال تكاملًا أعمق بين مجتمع الدفاع، وصناعات الدفاع، وقطاع التكنولوجيا العالية المدني، إلى جانب الاستثمار في بنى تحتية للبيانات وقوة حوسبة متقدمة.
ثانيًا، في ضوء التسارع العالمي في سباق تسلح الذكاء الاصطناعي، يجب على إسرائيل تعزيز تعاونها الاستراتيجي مع الولايات المتحدة في هذا المجال. يمكن أن يشمل هذا التعاون البحث والتطوير، والتكامل بين أنظمة الذكاء الاصطناعي التشغيلية، وتعميق الحوار الاستراتيجي حول الاستخدام المسؤول للذكاء الاصطناعي في الأنظمة العسكرية.
أخيرًا، إلى جانب المزايا التشغيلية، يثير دمج أنظمة الذكاء الاصطناعي في الحروب أيضًا قضايا قانونية وأخلاقية معقدة. يمكن لإسرائيل، التي تقف في طليعة مواجهة التهديدات الأمنية والتكنولوجية، أن تلعب دورًا كبيرًا في تشكيل أطر الحوكمة والمعايير الدولية للاستخدام المسؤول للذكاء الاصطناعي في أنظمة الدفاع مع الحفاظ على ميزتها التكنولوجية والتشغيلية.
الخاتمة
تعكس عقيدة الذكاء الاصطناعي الأمريكية في البنتاغون تغييرًا عميقًا في المفهوم الأمريكي للحرب. لم يعد يُنظر إلى الذكاء الاصطناعي كأداة تكنولوجية تكميلية، بل كهيكل استراتيجي يشكل الطريقة التي تخطط بها الجيوش وتنفذ الحملات العسكرية. تُظهر المواجهة مع إيران كيف أن هذا المفهوم بدأ يتحقق عمليًا. مع دمج الذكاء الاصطناعي بشكل أعمق في سلسلة القيادة، وتوليف المعلومات الاستخباراتية، والتخطيط العملياتي، تتشكل واقع جديد تصبح فيه الحدود بين الحكم البشري ودعم القرار القائم على الخوارزميات أكثر ديناميكية ومرونة. بالنسبة لإسرائيل، يمثل هذا كل من فرصة وتحديًا: هناك حاجة ليس فقط لتطوير قدرات ذكاء اصطناعي منفصلة، ولكن أيضًا لتبني نهج نظامي، ودمج الاستخبارات، والقيادة، وأنظمة القتال، وإنشاء بنية تحتية متقدمة للبيانات وقوة الحوسبة. في الوقت نفسه، يجب على إسرائيل تعزيز التعاون الاستراتيجي مع الولايات المتحدة وتعزيز تأثيرها على المعايير الدولية للاستخدام الآمن للذكاء الاصطناعي العسكري. بهذه الطريقة، ستتمكن إسرائيل من الحفاظ على ميزتها التكنولوجية والتشغيلية مع الحفاظ على الشرعية والاستعداد لعصر يصبح فيه الذكاء الاصطناعي مضاعف قوة استراتيجي في ساحة المعركة.
في أي حال، ستحدد الطريقة التي تتطور بها العلاقات بين مؤسسات الدفاع وصانعي السياسات وصناعة التكنولوجيا إلى حد كبير قواعد اللعبة في عصر الحروب القائمة على الذكاء الاصطناعي.

