نفذ الجيش الأمريكي أكثر من 13 ألف هجوم على أهداف في الحرب على إيران، مستخدمًا الذكاء الاصطناعي للمساعدة في تخطيط العمليات. استُخدمت أدوات الذكاء الاصطناعي لتجميع المعلومات الاستخباراتية، والمساعدة في تحديد أولويات الأهداف، وبناء حزم الضربات. يتغير ميدان المعركة، لكن عصر الحرب القائمة على الذكاء الاصطناعي قد بدأ بالفعل. فبالإضافة إلى إيران، استُخدم الذكاء الاصطناعي في عمليات حقيقية في أوكرانيا وغزة وفنزويلا. والخطوة التالية هي الحرب القائمة على الذكاء الاصطناعي، حيث تُستخدم أنظمة الذكاء الاصطناعي كوكلاء لتنفيذ العمليات. خلال السنوات القليلة المقبلة، ستتبنى الجيوش هذه الأنظمة لتحسين سير العمل في كل شيء، بدءًا من الخدمات اللوجستية والصيانة وصولًا إلى العمليات السيبرانية الهجومية.
بالنظر إلى كل هذه القدرات، يمتلك الذكاء الاصطناعي إمكانية تغيير سرعة العمليات المعرفية ونطاقها بشكل جذري. ومع ذلك، ينطوي الذكاء الاصطناعي العسكري على مخاطر جسيمة. تتجاوز هذه المخاطر استخدام الأسلحة ذاتية التشغيل، والتي كانت إحدى نقاط الخلاف الرئيسية في النزاع الأخير بين البنتاجون وشركة أنثروبيك الرائدة في مجال الذكاء الاصطناعي. فأنظمة الذكاء الاصطناعي العامة، مثل نماذج اللغة الضخمة، عُرضة لأعطال جديدة، وسهلة الاختراق والتلاعب، بل وقد ثبت أنها قادرة على الكذب والتآمر ضد مستخدميها.
لاستخدام الذكاء الاصطناعي بفعالية، ستحتاج الجيوش ليس فقط إلى تسخير إمكانياته، بل أيضًا إلى التعامل مع قيوده ومخاطره. يتفوق الجيش الأمريكي على منافسيه في توظيف أحدث تقنيات الذكاء الاصطناعي في العمليات العسكرية، إلا أن انتشار الذكاء الاصطناعي يتسارع. لذا، ستحتاج الدول إلى التعاون وتبادل أفضل الممارسات لاستخدام الذكاء الاصطناعي، بما يضمن بقاء السيطرة البشرية على الحرب. وقد قادت الولايات المتحدة الجهود الدولية لتوحيد جهود الدول حول الاستخدام العسكري المسؤول للذكاء الاصطناعي.
ومع استمرار تطور الذكاء الاصطناعي، سيتعين تحديث هذه المبادئ لمراعاة قدراته ومخاطره الجديدة. ولكن قبل كل شيء، يجب على الجيش الأمريكي أن يحدد بنفسه كيفية استخدام الذكاء الاصطناعي بفعالية. ثمة حاجة إلى قواعد جديدة لحرب الذكاء الاصطناعي، لا لتقييد قدرات المقاتلين، بل لتمكينهم بأدوات فعالة وموثوقة في خضم فوضى المعارك. والأهم من ذلك كله، يجب أن يكون الذكاء الاصطناعي أداةً لتعزيز عملية صنع القرار البشري، لا أن يُسلمها للآلات.
بعد مرور ما يقرب من 10 سنوات على إطلاق وزارة الدفاع مشروع مافن لتطبيق التعلم الآلي على تحليل لقطات الفيديو من الطائرات بدون طيار، تطورت تقنية الذكاء الاصطناعي بشكل كبير، وكذلك تطبيقاتها العسكرية.
تُدمج تطبيقات الذكاء الاصطناعي المحدودة، مثل تحديد وتتبع الأجسام، في العمليات الأمريكية. وقد بدأ الجيش الأمريكي باستخدام نماذج لغوية ضخمة، بما في ذلك على شبكاته السرية. في بيئة ميدانية متغيرة وديناميكية، كما هو الحال في العمليات الأمريكية ضد إيران، يمكن للذكاء الاصطناعي أن يساعد في معالجة كميات هائلة من المعلومات وتخطيط العمليات بوتيرة أسرع بكثير مما يستطيع البشر القيام به بمفردهم.
تتمتع أنظمة الذكاء الاصطناعي متعددة الأغراض بنطاق واسع من التطبيقات، بدءًا من صياغة التقارير والأوامر الإدارية وصولًا إلى تحليل كميات هائلة من البيانات. فهي قادرة على كتابة البرامج وتحليل البيانات وإنشاء المستندات. أما الأنظمة الذكية، فتتجاوز ذلك، إذ يمكنها اتخاذ إجراءات على أجهزة الحاسوب لإنشاء الملفات وتنظيمها وحذفها، وإدارة خطوات سير العمل، وبناء البرامج، والتفاعل عبر الإنترنت، والتواصل مع أنظمة ذكية أخرى. ومع ذلك، فإن محدودية هذه الأنظمة ونقاط ضعفها تثير قلقًا بالغًا، لا سيما في سياق الأمن القومي، حيث قد تترتب على القرارات عواقب وخيمة، وسيسعى الخصوم الأذكياء إلى تقويض أنظمة الذكاء الاصطناعي.
لكل تقنية حدودٌ يجب على الجيوش مراعاتها عند استخدامها. ولكل قدرةٍ تدابير مضادة، بل وتدابير مضادة مضادة. والذكاء الاصطناعي ليس استثناءً. وباعتباره تقنيةً ناشئةً نسبيًا، تعاني أنظمة الذكاء الاصطناعي من مشكلتين متفاقمتين. فالذكاء الاصطناعي ليس موثوقًا به حتى الآن، لا سيما في التطبيقات العسكرية التي قد لا تتوفر لها بيانات تدريب كافية. ولأن علماء الذكاء الاصطناعي والعسكريين لا يملكون حتى الآن خبرةً كافيةً بهذه الأدوات، فقد لا يفهم المطورون والمستخدمون حدود أداء أنظمة الذكاء الاصطناعي، ومواطن قصورها.
تتفاقم هذه المشكلات بسبب تحدٍّ فريد من نوعه في مجال الذكاء الاصطناعي، ألا وهو غموضه. تعتمد نماذج اللغة الضخمة على شبكات عصبية تضم مئات المليارات من الوصلات، ويتم تدريبها على مجموعات بيانات هائلة تحتوي على تريليونات الكلمات. في حال تعطل نظام الطيار الآلي في طائرة، يُمكن مراجعة شفرة الطائرة وتحديد العوامل البيئية أو المدخلات التي أدخلها الطيار والتي تسببت في رد فعل معين من قِبل الطيار الآلي، وكيف أدى ذلك إلى تحطم الطائرة. أما بالنسبة لنموذج اللغة الضخم، فإن الإجابة عن سبب توليد النموذج لنص معين تكمن في مليارات الوصلات في الشبكة العصبية وتريليونات الكلمات في قاعدة بياناته.
تُشكل هذه مشكلة لأن نماذج اللغة الكبيرة عُرضة لأنماط فشل متنوعة. فهي غالبًا ما تُصاب بـ"هلوسات"، فتُختلق الأمور بثقة. كما أنها عُرضة للتحيزات الموجودة في بيانات تدريبها. وتميل نماذج اللغة إلى التملق، فتُفرط في الموافقة على آراء مُستخدميها. وقد تظهر هذه الإخفاقات بطرق خطيرة في تطبيقات الأمن القومي. فنماذج اللغة التي تُعالج المعلومات قد تُخطئ في تفاصيل دقيقة، ولكنها مهمة، قد يغفل عنها المُشرف البشري على مُخرجاتها. أما النماذج التي تُولد النصوص فقد تُنتج معلومات خاطئة. وقد تُعزز أدوات الذكاء الاصطناعي التي يستخدمها مُحللو الاستخبارات لفهم المعلومات الاستخباراتية ومعالجتها، دون قصد، تحيزات المُحللين البشريين، مُضيفةً التملق الآلي إلى خطر التحيز التأكيدي البشري - أي البحث عن المعلومات التي تُؤكد الأفكار المُسبقة. وحتى لو قدمت أنظمة الذكاء الاصطناعي معلومات صحيحة، فإن غموضها بحد ذاته قد يُشكل تحديًا إذا لم يتمكن البشر من فهم سبب وصول نظام الذكاء الاصطناعي إلى استنتاج مُعين أو توصيته بمسار عمل مُعين.
تفتح أنظمة الذكاء الاصطناعي أيضًا آفاقًا جديدة للمهاجمين. إذ يمكن للمهاجمين التلاعب بهذه الأنظمة بطرق خبيثة متنوعة. فهجمات تسميم البيانات تُغير بيانات التدريب بمهارة -بطرق يصعب اكتشافها- لزرع ثغرات أمنية في نظام الذكاء الاصطناعي، يمكن استغلالها لاحقًا. وتُعرّض الهجمات المعادية أنظمة الذكاء الاصطناعي لبيانات مُتلاعب بها أثناء استخدامها، مما يؤدي إلى تعطلها أو تغيير سلوكها. وقد يدفع هذا أنظمة الذكاء الاصطناعي إلى تحديد الأهداف بشكل خاطئ، أو التوصل إلى استنتاجات خاطئة، أو تمكين المهاجمين من التهرب من كشفها. في إحدى التجارب، وضع المهاجمون ملصقات على مسار اختبار - أشبه بالألغام المعرفية - لخداع سيارة تسلا ودفعها للانحراف إلى المسار المقابل. كما يمكن التلاعب بنماذج اللغة الكبيرة من خلال هجمات الحقن الفوري التي تُعرّض النموذج لتعليمات خبيثة. وقد يتسبب نص خبيث في بريد إلكتروني أو اتصالات معادية مُعترضة في تجاهل النموذج للتعليمات السابقة، واتباع توجيهات المهاجم بدلًا منها.
تُشكل أنظمة الذكاء الاصطناعي مخاطر أكبر. إذ يُمكن أن يكون لها نطاق هجوم أوسع، نظرًا لتفاعلها مع بيانات غير موثوقة، بما في ذلك في بعض الحالات، عملها عبر الإنترنت. وقد تكون عواقب تحريض نظام ذكاء اصطناعي من قِبل مهاجم أشدّ وطأة، لأن النظام سيتخذ إجراءات على جهاز حاسب أو كجزء من سير عمل. وقد تمكن باحثون أمنيون من اختراق خاصية الذاكرة في نموذج لغوي من خلال زيارة نظام الذكاء الاصطناعي لموقع ويب غير موثوق يحتوي على تعليمات خبيثة. يُتيح إدخال التعليمات في الذاكرة للمهاجمين وصولًا دائمًا، وهو ما استغله الباحثون الأمنيون لتسريب البيانات . بل يُمكن أن تنتشر المخاطر الأمنية من نظام إلى آخر. في إحدى التجارب ، وجد الباحثون أن نظامًا واحدًا مُخترقًا يُمكنه نشر العدوى بشكل هائل عبر شبكة تضم ما يصل إلى مليون نظام أثناء تفاعلها مع بعضها البعض. ستكون أنظمة الذكاء الاصطناعي وشبكاتها أدوات حيوية للجيوش، لكنها ستُدخل ثغرات أمنية جديدة غير مُستعد لها.
تُشابه ثغرات أمن الذكاء الاصطناعي ثغرات الأمن السيبراني، لكنها تعمل على المستوى الإدراكي لكيفية تدريب نظام الذكاء الاصطناعي أو معالجته للمعلومات. ربما تكون أقرب إلى الخدع البصرية أو التحيزات الإدراكية البشرية، لكنها موجودة في أنظمة ذكاء اصطناعي غريبة لا نفهمها تمامًا. لا توجد دفاعات قوية حتى الآن. هذه الثغرات ليست سببًا للتخلي عن الذكاء الاصطناعي. بل يجب على الجيوش إعطاء الأولوية للأمن عند تبني الذكاء الاصطناعي. يجب أن يسير تبني الذكاء الاصطناعي جنبًا إلى جنب مع تطوير المعايير، والاختبار، واختبار أنظمة الذكاء الاصطناعي لضمان أمنها وموثوقيتها. لا يمكن اعتبار الأمن أمرًا ثانويًا، كما هو الحال غالبًا في الفضاء السيبراني.
لعلّ أغرب المخاطر هو احتمال أن يقرر نظام الذكاء الاصطناعي، من تلقاء نفسه، خداع مطوريه أو مستخدميه أو التآمر ضدهم. قد يبدو هذا السيناريو ضربًا من الخيال العلمي، لكن أنظمة الذكاء الاصطناعي أظهرت سلوكيات خادعة في بيئات تجريبية. تشمل هذه السلوكيات التلاعب بالأداء في التقييمات عندما يعتقد النظام أنه مراقب، والكذب على المستخدمين لتحقيق أهدافه، ومحاولة ابتزازهم ، ومحاولة الكتابة فوق الملفات أو التسلل إلى النظام لتجنب حذفه.
يتساءل المشككون في مخاطر "الذكاء الاصطناعي المارق" أحيانًا عن سبب لجوء نظام ذكاء اصطناعي إلى الخيانة ضد البشر. مع ذلك، يبدو أنه في حال تعارضت توجيهات نظام الذكاء الاصطناعي - على سبيل المثال، إذا طُلب منه تحقيق هدف ما مع ضرورة التحلي بالصدق دائمًا - فإنه في بعض الظروف سيتصرف بشكل غير نزيه لتحقيق هدفه. وسواء كان نظام الذكاء الاصطناعي "ينوي" الخداع أم أنه يؤدي دورًا فحسب، فهذا سؤال فلسفي غير ذي صلة. فسلوك نظام الذكاء الاصطناعي استراتيجي، ومخادع، وموجه نحو تحقيق هدف محدد، وقد يدفعه للعمل ضد المستخدمين البشريين. حتى تقييم أنظمة الذكاء الاصطناعي بناءً على هذا السلوك أمر معقد، لأن أكثر النماذج كفاءة تُظهر وعيًا كافيًا بالوضع المحيط بها لتدرك أنها تخضع للاختبار. لاحظ مقيّمون خارجيون لبرنامج Claude Opus 4.6 من شركة أنثروبيك أن البرنامج يُظهر وعيًا بأنه يخضع للاختبار ، مما دفع المقيّمين البشريين إلى إنهاء الاختبار مبكرًا، نظرًا لقلة الأدلة التي يمكن استخلاصها من الاختبار حول مدى توافق البرنامج مع أهدافه. تحمي الجيوش وأجهزة الاستخبارات نفسها من التهديدات الداخلية من الأفراد، وقد تحتاج إلى حماية مماثلة ضد "التهديدات الداخلية للذكاء الاصطناعي" في المستقبل.
لا يُعد أيٌّ من هذه المخاطر سببًا لوقف تبنّي الذكاء الاصطناعي. سيُحدث الذكاء الاصطناعي تحولًا جذريًا في الحروب، ويتعين على الجيش الأمريكي إيجاد سُبلٍ لتسخيره لتحقيق ميزة عسكرية والبقاء في الصدارة. تتطور تقنية الذكاء الاصطناعي بسرعة فائقة، حيث لا تتجاوز مدة تأخر النماذج مفتوحة المصدر، التي يأتي الكثير منها من شركات صينية، عن أحدث النماذج الأمريكية الخاصة سوى ثلاثة أشهر . يستغرق الأمر سنوات حتى تتبنى الجيوش تقنية الذكاء الاصطناعي وتُحدث تحولًا فعالًا في العمليات العسكرية، مما يجعل التفوق الطفيف الذي تتمتع به مختبرات الأبحاث الأمريكية الرائدة على منافسيها الصينيين عديم الجدوى عمليًا من منظور الذكاء الاصطناعي العسكري. يتنافس الجيشان الأمريكي والصيني على قدم المساواة، فالمنافسة العسكرية في مجال الذكاء الاصطناعي لا تدور حول أي قطاع خاص في أي دولة يتقدم ببضعة أشهر، بل حول أي جيش هو الأكثر فعالية في تسخير الذكاء الاصطناعي لتحقيق ميزة في ساحة المعركة.
بالطبع، السرعة مهمة. فاستراتيجية وزارة الدفاع الأمريكية للذكاء الاصطناعي، الصادرة في يناير 2026، تُشدد بشكلٍ كبير على أهمية التحرك السريع، وتركز قيادة البنتاجون الحالية، عن حق، على إزالة العقبات البيروقراطية التي تعترض سبيل تبني الذكاء الاصطناعي. ومع ذلك، يُظهر التاريخ أن مجرد وضع التكنولوجيا الجديدة بين أيدي المقاتلين لا يكفي أبدًا لإحداث تحول جذري في العمليات العسكرية. فالتفوق العسكري يكمن في إيجاد أفضل السبل لاستخدام التكنولوجيا الجديدة، ويتطلب الأمر تغييرات في العقيدة والتنظيم والتدريب والثقافة لتحقيق أقصى استفادة من التقنيات الجديدة الثورية. إذا استخدم الجيش الأمريكي الذكاء الاصطناعي لمجرد تحسين أدائه الحالي، فسيكون ذلك مفيدًا، ولكنه سيُفوّت عليه الفوائد الحقيقية للذكاء الاصطناعي، والتي تكمن في تغيير أساليب العمل.
يحتاج البنتاجون إلى التعاون مع الشركات المطورة لهذه التقنية لفهم حدود الذكاء الاصطناعي الحالية واستخدامه بفعالية. لقد تضررت العلاقة بين واشنطن ووادي السيليكون بشدة جراء الخلاف العلني بين شركة أنثروبيك والبنتاجون. ويُحِقّ لقادة الدفاع أن يضع قواعد استخدام الذكاء الاصطناعي العسكري قادة حكوميون مسؤولون أمام الشعب، لا شركات ربحية مسؤولة أمام المستثمرين والمساهمين. كما يُحِقّ لقادة الذكاء الاصطناعي الإشارة إلى أن نماذج اللغة الضخمة ليست موثوقة بما يكفي للاعتماد عليها في اتخاذ قرارات مصيرية بمفردها، وأن الذكاء الاصطناعي يُشكّل مخاطر جديدة تتمثل في تمكين المراقبة الجماعية المحلية.
إذا لم يتفق البنتاجون وشركة أنثروبيك على شروط استخدام نماذج الذكاء الاصطناعي الخاصة بشركة أنثروبيك، فلكلٍّ منهما الحق في إنهاء العلاقة. وللحكومة الحق في السعي للحصول على عقد لا يتضمن قيودًا على الاستخدام. وللشركات الخاصة الحق في عدم التعامل مع الحكومة إذا لم توافق على هذه الشروط. ونظرًا لتصريحات كبار قادة الدفاع برغبتهم في استخدام أدوات الذكاء الاصطناعي الخاصة بشركة أنثروبيك، وتصريح الرئيس التنفيذي للشركة، داريو أمودي، برغبته في بيعها للجيش، كان من المفترض أن يكون هناك مجال للتوصل إلى اتفاق. إلا أن قيادة البنتاجون ردّت على أنثروبيك بتصنيفها "كجهة خطر على سلسلة التوريد"، وهي خطوة غير مسبوقة ضد شركة أمريكية سبق أن صدر بحقها أمر قضائي.
إن استعداء مجتمع الذكاء الاصطناعي ليس استراتيجية فعّالة لإدخال الذكاء الاصطناعي في المجال العسكري. فليس بوسع الجيش الأمريكي تبنّي أحدث تقنيات الذكاء الاصطناعي دون التعاون البنّاء مع الأفراد والشركات المطوّرة لها. فبعد قطيعة مماثلة بين جوجل ووزارة الدفاع الأمريكية حول مشروع مافن قبل نحو عقد من الزمن، شنّ البنتاجون حملة علاقات ودية، متواصلًا مع علماء الذكاء الاصطناعي في القطاعين الصناعي والأكاديمي للاستماع إلى مخاوفهم. ولم تُسهم مبادئ أخلاقيات الذكاء الاصطناعي العسكرية الناتجة في رأب الصدع مع مجتمع الذكاء الاصطناعي فحسب، بل حسّنت أيضًا استخدام الجيش للذكاء الاصطناعي من خلال التأكيد على أهمية ضمان متانة الأنظمة وموثوقيتها وجدارتها بالثقة.
تُثير أنظمة الذكاء الاصطناعي المتطورة حاليًا تحدياتٍ أكثر تعقيدًا، وسيحتاج الجيش إلى مساعدة باحثي الذكاء الاصطناعي لحلّها. ومن الأهمية بمكان أن يفهم الجيش حدود الذكاء الاصطناعي ونقاط ضعفه لكي يتمكن من استخدامه بكفاءة.
لن يُجدي تسريع تبني الذكاء الاصطناعي نفعًا ما لم يُسرّع البنتاجون عمليات ضمان جودته بالتوازي. فالسرعة دون موثوقية لا قيمة لها. إذا لم يثق المقاتلون بالذكاء الاصطناعي، فلن يستخدموه. في عام ٢٠٠٣، وبعد أن أسقطت أنظمة الدفاع الجوي والصاروخي باتريوت التابعة للجيش طائرتين صديقتين، أوقف الجيش تشغيلها فعليًا طوال فترة غزو العراق. سيحتاج الجيش إلى تطوير تقييمات ومعايير ومؤشرات أداء جديدة، بالإضافة إلى فرق اختبار أنظمة الذكاء الاصطناعي، لفهم حدود الذكاء الاصطناعي ونقاط ضعفه والتخفيف من آثارها.
تبنّت وزارة الدفاع الأمريكية نهج "التعاون بين الإنسان والآلة" في التعامل مع الذكاء الاصطناعي والأنظمة المستقلة، ساعيةً إلى إيجاد أفضل السبل للاستفادة المثلى من المزايا الفريدة لكليهما. وتُعدّ بعض الخطوات الأخيرة التي اتخذها البنتاجون، مثل إطلاق منصة GenAI.mil في ديسمبر 2025، والتي أتاحت الوصول إلى نماذج لغوية ضخمة لجميع موظفي وزارة الدفاع على الشبكات غير المصنفة، ودمج أدوات الذكاء الاصطناعي على الشبكات المصنفة من خلال نظام مافن الذكي، من أفضل الطرق لتعزيز خبرة الأفراد في التعامل مع أنظمة الذكاء الاصطناعي. فكلما زاد تفاعل الأفراد العسكريين والمدنيين في قطاع الدفاع مع أنظمة الذكاء الاصطناعي، كلما ازداد فهمهم لقدرات الذكاء الاصطناعي وحدوده.
لكننا نحتاج أيضاً إلى تعاون بشري بين المقاتلين والمهندسين. يُتيح الذكاء الاصطناعي فرصاً جديدة لتعزيز الدفاع الأمريكي، ولكنه ينطوي أيضاً على مخاطر. وأفضل طريقة للتخفيف من هذه المخاطر هي الاعتراف بها وفهمها، وأن يعمل البنتاجون ووادي السيليكون معاً لمواجهتها.
