سلسلة القتل: كيف يدعم وادي السيليكون الحرب على إيران؟
نشر هذا المقال في منصة «بيبولز ديموكراسي» في 29 آذار 2026.
في 28 شباط 2026، أطلقت الولايات المتحدة و«إسرائيل» حربهما على إيران، وقصفتا 1000 هدف فيها خلال الساعات الـ24 الأولى. وبحلول منتصف آذار، تجاوز العدد 6000 هدف. لم تقف وراء هذه الوتيرة المذهلة من الدمار الترسانة المألوفة من صواريخ توماهوك وقاذفات الشبح B-2 والمقاتلات التي تنطلق من حاملات الطائرات فحسب، بل سلاح جديد في صندوق أدوات الإمبراطورية: الذكاء الاصطناعي.
توضح وثيقة استراتيجية الذكاء الاصطناعي الخاصة بالجيش الأمريكي الأمر بجلاء قاسٍ: «السرعة هي التي تفوز» و«مخاطر عدم التحرك بسرعة كافية تفوق مخاطر التنسيق غير المثالي». ما يعنيه ذلك عمليًا هو أن البنتاغون قرر أن القتل السريع أهم من القتل الدقيق.
من الجدير بالذكر بداية أن الذكاء الاصطناعي، كتقنية، يقدم إمكانيات هائلة للتقدم البشري في مجالات الرعاية الصحية وعلوم المناخ واكتشاف المواد والتخطيط لاحتياجات الإنسان. المشكلة ليست في الذكاء الاصطناعي بحد ذاته. المشكلة هي ما يحدث عندما توضع هذه التكنولوجيا في أيدي آلة حرب إمبريالية عملت لعقود على تحسين أدوات الموت بينما كانت تزيل بشكل منهجي كل قيد قانوني وأخلاقي على استخدامها.
يعتمد توظيف الجيش الأمريكي للذكاء الاصطناعي في إيران على نظام يُدعى «مايفن» (Maven)، صممته شركة تكنولوجيا الحرب «بالانتير» ويضم نموذج اللغة الكبير «كلود»، الذي طورته شركة «أنثروبيك». يجمع «مايفن» ما كان في السابق ثمانية أو تسعة أنظمة استخبارات واستهداف منفصلة في منصة رقمية واحدة. يستقبل النظام البيانات من صور الأقمار الصناعية، ومقاطع الفيديو الملتقطة بالطائرات بدون طيار، والاستخبارات الإشارية (المكالمات الهاتفية المعترضة، والرسائل النصية، ومراقبة الإنترنت) والرادار، وتقارير الاستخبارات البشرية. ثم تعالج خوارزميات التعلم الآلي هذا البحر الهائل من البيانات لتحديد الأهداف المحتملة وترتيبها حسب الأولوية، والتوصية بالأسلحة المناسبة، وحتى تقييم الأسس القانونية لشن ضربة.
أولًا، هناك مسألة الحجم. كانت العملية التقليدية للاستهداف العسكري، التي يطلق عليها البنتاغون اسم «سلسلة القتل»، تتطلب تاريخيًا فِرقًا من آلاف محللي الاستخبارات الذين يدرسون الصور بدقة، ويقارنون التقارير، ويبنون حزم الأهداف على مدى أيام أو أسابيع. خلال الحرب العالمية الثانية، كانت دورة الاستهداف الجوي، من جمع المعلومات الاستخباراتية إلى تجميع حزمة الضربات، تستغرق أسابيع أو حتى شهور. وجدت دراسة أجرتها جامعة جورجتاون أن الذكاء الاصطناعي قد خفض بالفعل أعضاء فريق محللي الاستخبارات في الفيلق الجوي الثامن عشر التابع للجيش الأمريكي من 2000 إلى 20 فقط. ووصف كريغ جونز، المحاضر البارز في جامعة نيوكاسل، الأمر بوضوح: الذكاء الاصطناعي يقدم توصيات الاستهداف «بسرعة أكبر بكثير في بعض النواحي من سرعة التفكير». أفادت التقارير أن الضربات التي قتلت المرشد الأعلى الإيراني آية الله علي خامنئي نُفذت في غضون ستين ثانية من تحديد الهدف.
ثم هناك مسألة ما تعنيه هذه السرعة بالنسبة لحياة المدنيين. حذر ديفيد ليزلي، أستاذ الأخلاق في جامعة كوين ماري في لندن، من أن الاعتماد على الذكاء الاصطناعي ينتج «تفريغًا معرفيًا»، حيث يشعر صانعو القرار البشريون بالانفصال عن عواقب الضربة لأن العمل التحليلي قد نُفذ بواسطة آلة. عندما يولد نظام «مايفن» توصية بهدف، فإن الضابط البشري الذي يراجعها لديه، على حد تعبير ليزلي، «نطاق زمني أضيق بكثير لتقييم التوصية». يقدم النظام خيارات؛ ويوافق الإنسان عليها. إن خرافة اتخاذ القرار «بمشاركة الإنسان»، أي الادعاء بأن البشر هم من يتخذون القرار النهائي دائمًا، تنهار أمام السرعة الفائقة للعملية.
لقد أسفرت الحرب على إيران بالفعل عما قد يكون أكثر العواقب تدميرًا لتوظيف الذكاء الاصطناعي في تحديد الأهداف: قصف مدرسة شجرة طيبة الابتدائية في ميناب في اليوم الأول من الحرب.
أصاب صاروخ كروز توماهوك أمريكي المدرسة، مما أسفر عن ما لا يقل عن 170 ضحية، معظمهم من الطالبات. كانت المدرسة تقع بجوار مجمع للحرس الثوري. وفقًا لتحقيق أولي أوردته صحيفة نيويورك تايمز، حدد ضباط القيادة المركزية الأمريكية إحداثيات الهدف «باستخدام بيانات قديمة قدمتها وكالة استخبارات الدفاع». تُظهر صور الأقمار الصناعية التي حللتها وكالات الأنباء أن المدرسة كانت محاطة بسياج يفصلها عن المجمع العسكري بين عامي 2013 و2016، وهي حقيقة إما تم تجاهلها أو لم يتم تحديثها أبدًا في قاعدة بيانات الاستهداف. وقد طالب أكثر من 120 عضوًا في الكونغرس بمعرفة ما إذا كان نظام «مايفن» وأنظمة الذكاء الاصطناعي التابعة له قد استُخدمت لتحديد المدرسة كهدف.
التفسيرات المتضاربة لقصف المدرسة هي في حد ذاتها كاشفة. تشير بعض المصادر إلى أن الذكاء الاصطناعي فشل في تحديد المدرسة كهدف مدني، وصنفها بدلًا من ذلك كجزء من المجمع العسكري. ويجادل آخرون بأن هذا كان فشلًا في الاستخبارات البشرية، حيث عمل المحللون ببيانات عمرها عشر سنوات. أفادت وكالة أنباء «سيمافور» أن قوائم المنشآت التجارية الإيرانية المتاحة للجمهور أظهرت موقع المدرسة، وأن بحثًا بسيطًا على الإنترنت كان من الممكن أن يمنع وقوع المجزرة. سواء كان اللوم يقع على الخوارزمية أو على المحلل، فإن الاستنتاج واحد: السعي وراء السرعة في الاستهداف، الذي يفاقمه الذكاء الاصطناعي بشكل هائل، يضيق مجال التحقق الدقيق إلى حد محوه. عندما تضرب 1000 هدف في 24 ساعة، فإن الوقت المتاح للتحقق مما إذا كان المبنى مدرسة أم ثكنة يقترب من الصفر. بالطبع، لا يمكن استبعاد احتمال وجود جرائم متعمدة، أي أن آلة الحرب الأمريكية-الإسرائيلية لا تأبه ببساطة بالضحايا المدنيين. فقد صرح وزير الحرب الأمريكي بيت هيغسيث صراحةً أن هدف الجيش هو «الفتك الأقصى، لا الشرعية الفاترة».
يمتد دور الذكاء الاصطناعي إلى ما هو أبعد من اختيار الأهداف. الحرب الحديثة هي، في جوهرها، مشكلة لوجستية ذات تعقيد هائل. إن تنسيق إطلاق صواريخ توماهوك من السفن الحربية، وغارات القاذفات الشبحية، وعمليات الطائرات بدون طيار، والتزود بالوقود جوًا، وإدارة الذخائر، وتقييم الأضرار، في وقت واحد عبر مسارح عمليات متعددة، هو بالضبط مشكلة التنسيق كثيفة البيانات التي من المفترض أن يحلها الذكاء الاصطناعي. يُعتقد أن «مايفن» يوصي بأسلحة محددة لكل هدف، مع مراعاة المخزونات وأداء الذخائر السابق. إذ يشغل الذكاء الاصطناعي محاكاة عملياتية، تسمح للمخططين بتقييم مسارات العمل في دقائق بدلًا من أيام. أنفق البنتاغون 11.3 مليار دولار في الأيام الستة الأولى وحدها.
ثم هناك الاقتصاد السياسي لحرب الذكاء الاصطناعي. شهدت شركة «بالانتير»، الشركة التي تقف وراء «مايفن»، ارتفاع قيمتها السوقية إلى ما يقرب من 360 مليار دولار بفضل قوة العقود العسكرية. منح البنتاغون «بالانتير» عقدًا أوليًا لـ«مايفن» بقيمة 480 مليون دولار عام 2024، تم توسيعه إلى 1.3 مليار دولار بحلول عام 2025، وأصبح «مايفن» الآن برنامجًا رسميًا مسجلًا. منح الجيش الأمريكي بشكل منفصل شركة «بالانتير» عقدًا تصل قيمته إلى 10 مليارات دولار. أصبحت حرب الذكاء الاصطناعي الآن مركز ربح رئيسي لوادي السيليكون، مما يخلق قاعدة قوية لها مصلحة مالية مباشرة في الصراع الدائم.
لم يظهر استخدام الذكاء الاصطناعي في الحرب على إيران من فراغ، فقد شكلت حرب الإبادة الجماعية التي شنتها «إسرائيل» على غزة حقل تجارب. نشر الجيش الإسرائيلي أنظمة ذكاء اصطناعي تسمى «لافندر» و«غوسبل» لتحديد الأهداف، وهي مبرمجة لقبول ما يصل إلى 100 ضحية مدنية في ضربة واحدة على مقاتل مشتبه به من حماس. قُتل أكثر من 75,000 فلسطيني منذ تشرين الأول 2023. ما تم اختباره في غزة تم الآن توسيع نطاقه ضد إيران.
المقارنات مع الحروب الإمبريالية السابقة مفيدة. في حرب فيتنام، كان نظام الاستهداف الآلي «إيجلو وايت» يُخدع بانتظام بواسطة طُعم. عام 1988، أسقط طراد «إيجيس» التابع للبحرية الأمريكية رحلة إيران للطيران رقم 655، مما أسفر عن مقتل 290 مدنيًا، لأن الأفراد الذين كانوا يستخدمون نظام القتال الآلي للطراد، أخطأوا في تحديد هوية طائرة ركاب مدنية. عام 1999، أدت إخفاقات استخباراتية إلى قصف قاذفات قنابل أمريكية شبحية السفارة الصينية في بلغراد. في كل مرحلة، تسببت أتمتة الحرب في أخطاء كارثية؛ وفي كل مرحلة، مضت القوى الإمبريالية قدمًا بغض النظر عن ذلك.
الجديد هو الحجم. البنية التحتية التي يتم بناؤها الآن، مثل نظام «مايفن» المنتشر عبر جميع الفروع العسكرية الأمريكية الستة، ومنصة GenAI.mil للشبكات السرية، بأكثر من 20,000 مستخدم نشط عبر 35 أداة عسكرية، هي البنية الدائمة للحرب الخوارزمية. بالتوازي مع ذلك، فككت إدارة ترامب كل آلية لحماية المدنيين بشكل منهجي. تم تهميش المحامين العسكريين الذين قدموا المشورة بشأن الامتثال للقانون الدولي وفصلوا من العمل. أفاد الهلال الأحمر الإيراني عن تضرر ما يقرب من 20,000 مبنى مدني و77 منشأة رعاية صحية حتى الآن.
الواقع الجديد للحرب القائمة على الذكاء الاصطناعي ليس نتيجة حتمية التكنولوجيا، بل نتيجة الإمبريالية. عندما يتم نشرها في إطار منطق الرأسمالية الإمبريالية، فإنها تصبح ما أصبحت عليه في إيران: آلة للقتل بشكل أسرع، وعلى نطاق أوسع، مع قدر أقل من المساءلة، ومع أرباح هائلة للشركات التي تصنعها. إن الأطفال الذين لقوا حتفهم في مدرسة شجرة طيبة ليسوا خطأً في النظام. ففي إطار منطق «الفتك الأقصى، لا الشرعية الفاترة»، هم السمة التي تعّرف هذا النظام.






