... | 🕐 --:--
-- -- --
عاجل
⚡ عاجل: كريستيانو رونالدو يُتوّج كأفضل لاعب كرة قدم في العالم ⚡ أخبار عاجلة تتابعونها لحظة بلحظة على خبر ⚡ تابعوا آخر المستجدات والأحداث من حول العالم
⌘K
AI مباشر
199438 مقال 299 مصدر نشط 38 قناة مباشرة 7436 خبر اليوم
آخر تحديث: منذ 0 ثانية

مخاطر كبرى لحروب الذكاء الاصطناعي... هل يحد منها البنتاغون؟

العالم
مجلة المجلة
2026/04/15 - 09:41 501 مشاهدة
مخاطر كبرى لحروب الذكاء الاصطناعي... هل يحد منها البنتاغون؟ layout Wed, 04/15/2026 - 10:41
(

شن الجيش الأميركي أكثر من 13 ألف هجوم على إيران، مستخدماً الذكاء الاصطناعي للمساعدة في تخطيط العمليات. واستُخدمت أدوات الذكاء الاصطناعي في تجميع المعلومات الاستخبارية، والمساعدة في تحديد أولويات الأهداف، وبناء حزم الضربات. يتغير ميدان المعركة، لكن عصر حرب الذكاء الاصطناعي بدأ بالفعل. فإلى جانب إيران، استخدم الذكاء الاصطناعي في عمليات حقيقية في أوكرانيا وغزة وفنزويلا. وتتمثل الخطوة التالية في الحروب القائمة على الذكاء الاصطناعي في استخدام هذه الأنظمة كوكلاء لتنفيذ العمليات. وخلال السنوات القليلة المقبلة، ستعتمد الجيوش على هذه التقنيات لتحسين سير العمل في مختلف المجالات، من الخدمات اللوجستية والصيانة إلى العمليات السيبرانية الهجومية.

وعند النظر إلى هذه القدرات مجتمعة، يتضح أن الذكاء الاصطناعي قادر على إحداث تحول جذري في سرعة العمليات المعرفية واتساعها. ومع ذلك، فإن استخدامه في المجال العسكري ينطوي على مخاطر جسيمة. ولا تقتصر هذه المخاطر على الأسلحة ذاتية التشغيل، التي كانت إحدى نقاط الخلاف الرئيسة في النزاع الأخير بين البنتاغون وشركة "أنثروبيك". فأنظمة الذكاء الاصطناعي العامة، بما فيها نماذج اللغة الضخمة، عرضة لأنماط جديدة من الإخفاق، كما أنها قابلة للاختراق والتلاعب. وثبت أيضا أنها قد تقدم معلومات مضللة أو غير دقيقة، بل وقد تلجأ إلى خداع مستخدميها والتآمر عليهم.

(رويترز)
عناصر يعملون في مركز عمليات وأمن شبكة قيادة الفضاء الجوية بقاعدة بيترسون في كولورادو، ضمن توجه أميركي لحماية البنية التحتية الحيوية عبر صد الهجمات السيبرانية، 20 يوليو 2010

وحتى تستخدم الجيوش الذكاء الاصطناعي بفعالية، عليها أن تدرك حدوده ومخاطره بقدر ما تسعى إلى الإفادة من إمكاناته. وعلى الرغم من تفوق الجيش الأميركي على منافسيه في توظيف أحدث تقنيات الذكاء الاصطناعي في العمليات الميدانية، فإن انتشار هذه التقنيات يتسارع عالمياً. لذلك، ستحتاج الدول إلى تعزيز التعاون فيما بينها وتبادل أفضل الممارسات في استخدام الذكاء الاصطناعي، بما يضمن الحفاظ على السيطرة البشرية على مجريات الحرب. وقادت الولايات المتحدة جهودا دولية لتوحيد المواقف بشأن الاستخدام العسكري المسؤول لهذه التكنولوجيا. ومع استمرار تطور الذكاء الاصطناعي، سيكون من الضروري تحديث هذه المبادئ باستمرار لمواكبة قدراته المتنامية ومخاطره المستجدة.

وقبل كل شيء، ينبغي على الجيش الأميركي أن يحدد بوضوح كيفية توظيف الذكاء الاصطناعي بفعالية. فثمة حاجة إلى وضع قواعد جديدة لحروب الذكاء الاصطناعي، ليس بهدف تقييد قدرات المقاتلين، بل لتمكينهم من استخدام أدوات فعالة وموثوقة وسط فوضى المعارك. والأهم من ذلك، يجب أن يظل الذكاء الاصطناعي أداة داعمة لتعزيز عملية صنع القرار البشري، وليس بديلا عنها.

إذا لم يثق المقاتلون بهذه التقنية فلن يلجأوا إلى استخدامها
15 أبريل , 2026

أنظمة الذكاء الاصطناعي العامة، قابلة للاختراق والتلاعب، بل وثبت أنها يمكن أن تكذب وتتآمر ضد مستخدميها

وبعد ما يقرب من عشر سنوات على إطلاق وزارة الحرب مشروع "مافن" لتطبيق تقنيات التعلم الآلي على تحليل لقطات الفيديو التي تلتقطها المسيرات، شهدت تقنيات الذكاء الاصطناعي تطورا كبيرا، واتسع معها نطاق تطبيقاتها العسكرية.

تُدمج تطبيقات الذكاء الاصطناعي المحدودة، مثل تحديد الأهداف وتتبعها، في العمليات العسكرية الأميركية. كما بدأ الجيش الأميركي استخدام نماذج لغوية كبيرة، بما في ذلك على شبكاته السرية. وفي بيئة ميدانية متغيرة وديناميكية، كما هي الحال في العمليات الأميركية ضد إيران، يمكن للذكاء الاصطناعي أن يساعد في معالجة كميات هائلة من المعلومات وتخطيط العمليات بوتيرة أسرع بكثير مما يستطيع البشر تحقيقه بمفردهم.

ولأنظمة الذكاء الاصطناعي متعددة الأغراض استخدامات تمتد من صياغة التقارير والأوامر الإدارية إلى تحليل كميات هائلة من البيانات. فهي قادرة على كتابة البرامج وتحليل البيانات وإنشاء المستندات. أما الأنظمة الذكية فتتجاوز ذلك، إذ يمكنها تنفيذ إجراءات على أجهزة الحاسوب، مثل إنشاء الملفات وتنظيمها وحذفها، وإدارة مراحل سير العمل، وبناء البرامج، والتفاعل عبر الإنترنت، والتواصل مع أنظمة ذكية أخرى. ومع ذلك، فإن محدودية هذه الأنظمة ونقاط ضعفها تثير قلقا بالغا، ولا سيما في سياق الأمن القومي، حيث تترتب على القرارات عواقب وخيمة، وحيث يحاول الخصوم الأذكياء تقويض أنظمة الذكاء الاصطناعي واستغلال ثغراتها.

(رويترز)
طائرة مسيرة تحلق فوق وسط مدينة رينو خلال تجربة لوكالة "ناسا" لاختبار نظام إدارة حركة الطائرات غير المأهولة، 21 مايو 2019

ولكل تقنية حدود يتعين على الجيوش أخذها في الاعتبار عند استخدامها. ولكل قدرة تدابير مضادة، بل وتدابير مضادة لتلك التدابير. والذكاء الاصطناعي ليس استثناء. وباعتباره تقنية ناشئة نسبيا، تعاني أنظمة الذكاء الاصطناعي من مشكلتين متفاقمتين. فهي ليست، حتى الآن، موثوقة بالكامل، ولا سيما في التطبيقات العسكرية التي قد تفتقر إلى بيانات تدريب كافية. كما أن علماء الذكاء الاصطناعي والعسكريين لا يمتلكون، حتى الآن، خبرة كافية بهذه الأدوات، وهو ما قد يؤدي إلى عدم فهم دقيق لحدود أداء أنظمة الذكاء الاصطناعي ومجالات قصورها.

الذكاء الاصطناعي باعتباره تقنية غير ناضجة نسبيا يعاني من مشكلتين متلازمتين: عدم الموثوقية، وقلة الخبرة لدى العلماء والعسكريين

وتتفاقم هذه المشكلات بسبب تحد فريد في مجال الذكاء الاصطناعي، وهو غموضه. فنماذج اللغة الضخمة تعتمد على شبكات عصبية تضم مئات المليارات من الوصلات، وتُدرّب على مجموعات بيانات هائلة تحتوي على تريليونات الكلمات. وإذا تعطل نظام الطيار الآلي في طائرة، يمكن مراجعة برمجته وتحليل شفرته وتحديد العوامل البيئية أو مدخلات الطيار التي أدت إلى استجابة معينة، وكيف أسهم ذلك في وقوع الخلل. أما في حالة نموذج لغوي ضخم، فإن تفسير سبب إنتاجه نصاً بعينه يصبح أكثر تعقيداً، لأن الإجابة تكمن في مليارات الوصلات داخل الشبكة العصبية، وفي تريليونات من الكلمات التي تدرب عليها.

تشكل هذه المسألة تحديا حقيقيا، إذ إن نماذج اللغة الكبيرة عرضة لأنماط متعددة من الإخفاق. فهي كثيرا ما تعاني مما يُعرف بـ"الهلوسة"، فتختلق معلومات غير صحيحة بثقة عالية. كما تتأثر بالتحيزات الكامنة في بيانات التدريب، وتميل إلى التملق من خلال المبالغة في موافقة آراء المستخدمين. وتتجلى هذه الإخفاقات بطرق خطيرة في سياقات الأمن القومي. فالنماذج المستخدمة لمعالجة المعلومات يمكنها أن تخطئ في تفاصيل دقيقة لكنها مهمة، وقد تمر هذه الأخطاء من دون أن يلاحظها المشرف البشري. أما النماذج المولدة للنصوص، فقادرة على إنتاج معلومات مضللة أو غير دقيقة. كما أن أدوات الذكاء الاصطناعي التي يعتمد عليها محللو الاستخبارات لفهم البيانات ومعالجتها يمكنها أن تسهم، من دون قصد، في تعزيز تحيزات المحللين أنفسهم، مضيفة نوعا من التملق الآلي إلى خطر التحيز التأكيدي لدى البشر، أي الميل إلى البحث عن معلومات تدعم الأفكار المسبقة. وحتى عندما تقدم أنظمة الذكاء الاصطناعي معلومات صحيحة، فإن غموضها يظل تحديا قائما، ولا سيما حين يعجز البشر عن فهم الأسس التي استند إليها النظام للوصول إلى استنتاج معين أو التوصية بمسار عمل محدد.

وتشكل أنظمة الذكاء الاصطناعي المتقدمة مخاطر أكبر. إذ قد تمتلك نطاق هجوم أوسع نتيجة تفاعلها مع بيانات غير موثوقة، بما في ذلك، في بعض الحالات، عبر الإنترنت. وقد تكون عواقب استغلال المهاجمين لهذه الأنظمة أشد خطورة، لأنها لا تكتفي بمعالجة المعلومات، بل قد تتخذ إجراءات مباشرة على أجهزة الحاسوب أو ضمن سير العمل. وأظهر باحثون في الأمن السيبراني إمكانية اختراق خاصية الذاكرة في أحد النماذج اللغوية، من خلال زيارة نظام الذكاء الاصطناعي لموقع إلكتروني غير موثوق يحتوي على تعليمات خبيثة. ويتيح إدخال مثل هذه التعليمات إلى الذاكرة للمهاجمين نوعاً من الوصول المستمر، وهو ما استُخدم بالفعل في تسريب البيانات خلال تجارب أمنية. والأخطر من ذلك أن التهديدات قد تنتقل من نظام إلى آخر. فقد أظهرت إحدى الدراسات أن نظاماً واحداً مخترقاً يمكنه نشر العدوى على نطاق واسع عبر شبكة قد تضم ما يصل إلى مليون نظام أثناء تفاعلها معا.

ستكون أنظمة الذكاء الاصطناعي وشبكاتها أدوات حيوية للجيوش، لكنها ستدخل في الوقت نفسه ثغرات أمنية جديدة قد لا تكون هذه الجيوش مستعدة للتعامل معها.

(رويترز)
مبنى وزارة الحرب "البنتاغون" في أرلينغتون بولاية فرجينيا، مركز القيادة الدفاعية للولايات المتحدة، 9 أكتوبر 2020

وتشبه ثغرات أمن الذكاء الاصطناعي نظيراتها في الأمن السيبراني، لكنها تعمل على مستوى إدراكي أعمق يتعلق بطريقة تدريب النظام ومعالجته للمعلومات. وهي، في بعض جوانبها، أقرب إلى الخدع البصرية أو التحيزات الإدراكية لدى البشر، لكنها تظهر داخل أنظمة ذكاء اصطناعي معقدة لا نفهمها فهما كاملا حتى الآن. ولا تتوافر حتى الآن دفاعات قوية وراسخة لمواجهة هذه الثغرات. ومع ذلك، لا ينبغي أن تكون هذه التحديات مبررا للتخلي عن الذكاء الاصطناعي. بل على العكس، يتعين على الجيوش إعطاء الأولوية لمسألة الأمن عند تبني هذه التقنيات. ويجب أن يسير إدماج الذكاء الاصطناعي جنبا إلى جنب مع تطوير المعايير، وإجراء اختبارات صارمة، وتقييم الأنظمة بصورة مستمرة لضمان أمنها وموثوقيتها. فلا يمكن التعامل مع الأمن باعتباره مسألة ثانوية، كما حدث في كثير من الأحيان في المجال السيبراني، بل يجب أن يكون عنصرا أساسيا في تصميم أنظمة الذكاء الاصطناعي واستخدامها.

يمكن للخصوم التلاعب بالذكاء الاصطناعي عبر تسميم البيانات أو الهجمات العدائية التي تغير سلوكه أثناء الاستخدام. ويؤدي ذلك إلى أخطاء واستنتاجات خاطئة

وربما كان أغرب ما تنطوي عليه هذه المخاطر احتمال أن يقرر نظام ذكاء اصطناعي، من تلقاء نفسه، خداع مطوريه أو التآمر على مستخدميه. وقد يبدو هذا السيناريو أقرب إلى الخيال العلمي، غير أن أنظمة الذكاء الاصطناعي أظهرت بالفعل سلوكا خداعيا في بيئات تجريبية. وشمل ذلك تعمد خفض أدائها أثناء الاختبارات عندما تشعر بأنها تخضع للمراقبة، والكذب على المستخدمين لتحقيق أهدافها، ومحاولة ابتزازهم، بل وحتى السعي إلى الكتابة فوق الملفات أو تهريب نفسها إلى خارج النظام تفاديا للحذف.

وكثيرا ما يتساءل المشككون في أخطار "الذكاء الاصطناعي المارق" عن السبب الذي قد يدفع نظاما ذكيا إلى الانقلاب على البشر. غير أن التجارب تشير إلى أنه عندما تتعارض التعليمات الموجهة إلى النظام، كأن يُطلب منه مثلا إنجاز مهمة معينة وأن يظل صادقا على الدوام، فإنه قد يلجأ، في بعض الظروف، إلى التصرف بخداع من أجل بلوغ غايته. أما ما إذا كان النظام "يقصد" الخداع فعلا أو يؤدي دورا فحسب، فذلك سؤال فلسفي قليل الجدوى. فالسلوك الذي يصدر عن النظام يتسم بالحسابات المسبقة والخداع والتوجه نحو تحقيق الهدف، وقد يقود أنظمة الذكاء الاصطناعي إلى العمل ضد مستخدميها من البشر.

وحتى تقييم هذه الأنظمة لرصد مثل هذا السلوك ينطوي على قدر كبير من الصعوبة، لأن النماذج الأكثر تطورا تمتلك قدرا من الوعي الظرفي يكفي لإدراك أنها موضع اختبار. فقد لاحظ مقيّمون مستقلون لنموذج "Claude Opus 4.6" التابع لشركة أنثروبيك أن النموذج عبّر صراحة عن إدراكه أنه يخضع للاختبار، الأمر الذي دفع المقيّمين إلى إنهاء التجربة مبكرا، إذ لم يعد متوقعا أن تكشف عن الكثير بشأن مدى توافقه مع الأهداف الموضوعة له. وكما تحرص الجيوش وأجهزة الاستخبارات على التحسب للتهديدات التي قد تصدر عن أشخاص من داخلها، فقد تجد نفسها مستقبلا مضطرة إلى تطوير وسائل حماية مماثلة ضد "التهديدات الداخلية" الصادرة عن الذكاء الاصطناعي.

ولا تمثل أي من هذه الأخطار سببا لوقف تبني الذكاء الاصطناعي. فالذكاء الاصطناعي مرشح لإعادة تشكيل الحرب، وعلى الجيش الأميركي أن يجد السبل الكفيلة بتسخيره لتحقيق تفوق عسكري يتيح له البقاء في صدارة المنافسة. كما أن هذه التكنولوجيا تنتشر بوتيرة شديدة السرعة. فالنماذج مفتوحة المصدر، التي يخرج كثير منها من شركات صينية، لا تتأخر عن أحدث النماذج الأميركية المغلقة سوى ثلاثة أشهر فقط.

(رويترز)
فني يعمل داخل مركز بيانات للذكاء الاصطناعي تابع لخدمات "أمازون" السحابية، في ولاية إنديانا الأميركية، ضمن توسع البنية التحتية الرقمية، 2 أكتوبر 2025

غير أن الجيوش تحتاج إلى سنوات حتى تتبنى تقنيات الذكاء الاصطناعي وتنجح في إدماجها داخل عملياتها على نحو فعال. ولهذا، فإن الفارق الضئيل الذي تتمتع به المختبرات الأميركية المتقدمة على منافسيها الصينيين يكاد يفقد أي قيمة حقيقية من زاوية الذكاء الاصطناعي العسكري. فالمؤسستان العسكريتان الأميركية والصينية تتحركان على أرضية متقاربة. والمنافسة بينهما لا تتحدد بمن يملك قطاعا خاصا يسبق الآخر ببضعة أشهر، وإنما بمن ينجح أكثر في تحويل الذكاء الاصطناعي إلى أداة تمنحه أفضلية في ساحة المعركة.

ولا شك أن السرعة عنصر حاسم. فاستراتيجية وزارة الحرب الأميركية للذكاء الاصطناعي، الصادرة في يناير/كانون الثاني 2026، تضع التحرك السريع في صدارة أولوياتها، كما أن القيادة الحالية للبنتاغون تركز، بحق، على إزالة العقبات البيروقراطية التي تعرقل تبني هذه التكنولوجيا.

الجيوش تحتاج إلى سنوات حتى تتبنى تقنيات الذكاء الاصطناعي وتنجح في إدماجها داخل عملياتها على نحو فعال

إلا أن التاريخ يظهر أن وضع التكنولوجيا الجديدة بين أيدي المقاتلين لا يكفي وحده لإحداث تحول في العمليات العسكرية. فالتفوق العسكري ينبع من اكتشاف أفضل السبل لاستخدام التكنولوجيا الجديدة، ومن إدخال تغييرات في العقيدة والتنظيم والتدريب والثقافة العسكرية، بما يسمح بالاستفادة الكاملة من آثارها التحويلية.

وإذا استخدم الجيش الأميركي الذكاء الاصطناعي لتحسين ما يقوم به أصلا فحسب، فسيحقق بعض الفائدة. لكنه سيحرم نفسه من المزايا الحقيقية التي يتيحها الذكاء الاصطناعي، وهي المزايا التي تكمن في تغيير طريقة العمل ذاتها.

يحتاج البنتاغون إلى العمل مع الشركات التي تطور هذه التكنولوجيا حتى يفهم حدود الذكاء الاصطناعي اليوم، ويحسن استخدامه على نحو فعال. وقد تضررت العلاقة بين واشنطن ووادي السيليكون بشدة جراء السجال العلني بين شركة "أنثروبيك" والبنتاغون.

ولدى قادة الدفاع ما يبرر قولهم إن القواعد الناظمة لاستخدام الذكاء الاصطناعي العسكري ينبغي أن تضعها قيادات حكومية خاضعة للمساءلة أمام الجمهور، لا شركات ربحية لا تكون مساءلتها إلا أمام المستثمرين والمساهمين. وفي المقابل، فإن قادة قطاع الذكاء الاصطناعي محقون أيضاً حين يشيرون إلى أن النماذج اللغوية الكبرى لم تبلغ بعد مستوى من الموثوقية يسمح بإسناد قرارات حياة أو موت إليها بصورة مستقلة، وأن الذكاء الاصطناعي يفتح كذلك أخطارا مستجدة تعزز المراقبة الجماعية داخل البلاد.

(رويترز)
جندي أميركي يجهز طائرة استطلاع مسيرة من طراز "Ghost-X" خلال تدريبات عسكرية مشتركة في ألمانيا، في إطار تعزيز القدرات الميدانية، 15 يناير 2025

وإذا عجز البنتاغون وشركة "أنثروبيك" عن الاتفاق على شروط استخدام نماذجها، فلكل طرف الحرية في إنهاء العلاقة. فمن حق الحكومة أن تسعى إلى عقد لا يتضمن قيودا على الاستخدام، كما أن من حق الشركات الخاصة أن تمتنع عن التعامل مع الحكومة إذا لم توافق على الشروط المطروحة. وبالنظر إلى أن كبار مسؤولي الدفاع قالوا إنهم يريدون استخدام أدوات الذكاء الاصطناعي التي تطورها "أنثروبيك"، وأن الرئيس التنفيذي للشركة، داريو أمودي، قال بدوره إنه يريد البيع للمؤسسة العسكرية، فلا بد أن تكون هناك مساحة للتفاهم. لكن قيادة البنتاغون اختارت، بدلا من ذلك، الرد على الشركة بتصنيفها "خطرا على سلسلة الإمداد"، في خطوة غير مسبوقة ضد شركة أميركية سبق أن أوقفها أمر قضائي.

أحد أخطر الاحتمالات أن يقوم النظام نفسه بالخداع أو التآمر... وأظهرت تجارب أن هناك أنظمة تحاول الكذب أو الابتزاز أو التهرب من الإيقاف

وليس من الحكمة تنفير مجتمع الذكاء الاصطناعي إذا كانت الغاية هي إدخال هذه التكنولوجيا إلى المؤسسة العسكرية. فليس ثمة سبيل فعلي أمام الجيش الأميركي لاعتماد أحدث تقنيات الذكاء الاصطناعي من دون العمل البناء مع الأشخاص والشركات الذين يصنعونها. وبعد قطيعة علنية مماثلة بين "غوغل" ووزارة الحرب بشأن مشروع "مافن" قبل نحو عقد، أطلق البنتاغون حملة انفتاح مدروسة، فتواصل مع علماء الذكاء الاصطناعي في الصناعة والأوساط الأكاديمية للاستماع إلى هواجسهم. وساعدت المبادئ الأخلاقية التي انبثقت عن ذلك ليس في رأب الصدع مع مجتمع الذكاء الاصطناعي فحسب، بل أيضا في تحسين استخدام الجيش لهذه التكنولوجيا، من خلال التشديد على أهمية أن تكون الأنظمة متينة وموثوقة وجديرة بالثقة.

وتطرح أنظمة الذكاء الاصطناعي المتقدمة اليوم مشكلات أشد تعقيدا، وسيكون على المؤسسة العسكرية أن تستعين بباحثي الذكاء الاصطناعي لمعالجتها. ولا مندوحة من أن تدرك المؤسسة العسكرية حدود هذه الأنظمة وأنماط إخفاقها حتى تتمكن من استخدامها على نحو موثوق.

ولن ينجح تسريع تبني الذكاء الاصطناعي إذا لم يواكبه البنتاغون بتسريع إجراءات التحقق من سلامته وموثوقيته. فالسرعة من دون اعتمادية لا قيمة لها. وإذا لم يثق المقاتلون بهذه الأنظمة، فلن يستخدموها. ففي عام 2003، بعدما أسقطت منظومات باتريوت التابعة للجيش طائرتين صديقتين، عمدت المؤسسة العسكرية عمليا إلى إخراجها من الخدمة طوال ما تبقى من غزو العراق. ولهذا، سيكون على الجيش أن يطور تقييما جديدا، ومعايير ومقاييس مرجعية، واختبارات خصومية لأنظمة الذكاء الاصطناعي، حتى يفهم حدودها ومواطن ضعفها على نحو أفضل، ويخفف من أخطارها.

(رويترز)
طائرة مسيرة من طراز "FURY" داخل منشأة تصنيع في أوهايو، في إطار تطوير الصناعات الدفاعية الأميركية، 19 مارس 2026

وتعاملت وزارة الحرب الأميركية مع الذكاء الاصطناعي والاستقلالية التشغيلية من خلال فلسفة "التعاون بين الإنسان والآلة"، سعيا لإيجاد أفضل السبل للاستفادة المثلى من المزايا الخاصة بكل من البشر والآلات. وبعض الخطوات التي اتخذها البنتاغون أخيرا، مثل إطلاق "GenAI.mil" في ديسمبر/كانون الأول 2025، بما أتاح لموظفي وزارة الحرب جميعا استخدام النماذج اللغوية الكبرى على الشبكات غير المصنفة، إلى جانب دمج أدوات الذكاء الاصطناعي في الشبكات المصنفة عبر نظام "مافن" الذكي، تمثل وسائل ممتازة لتوسيع الخبرة البشرية في التعامل مع هذه الأنظمة. فكلما ازداد احتكاك الأفراد العسكريين والمدنيين في وزارة الحرب بأنظمة الذكاء الاصطناعي، أصبح حدسهم أكثر نضجا في فهم ما تستطيع هذه الأنظمة إنجازه وما تعجز عنه.

ومع ذلك، فنحن بحاجة أيضاً إلى تعاون بشري بين العسكريين والمهندسين. فالذكاء الاصطناعي يتيح فرصا جديدة لتعزيز الدفاع الأميركي، لكنه يحمل في الوقت نفسه أخطارا واضحة. وأفضل سبيل لتخفيف هذه الأخطار هو الإقرار بها وفهمها، وأن يعمل البنتاغون ووادي السيليكون معاً على معالجتها.

15 أبريل , 2026
story cover
Off
Label
Promotion Article
Off
Show on issuepdf page
Off
مشاركة:

مقالات ذات صلة

AI
يا هلا! اسألني أي شي 🎤