أعلنت وزارة الدفاع الأمريكية يوم الجمعة، 1 مايو 2026، إبرام اتفاقات مع 8 شركات تقنية لنشر قدرات متقدمة من الذكاء الاصطناعي في بيئاتها المصنفة، بهدف توسيع نطاق استخدام هذه الأدوات في العمليات العسكرية والاستخباراتية، بالإضافة إلى المهام المؤسسية للوزارة.
وشملت قائمة الشركات المتعاقد معها كلاً من SpaceX، وOpenAI، وGoogle، وNVIDIA، وReflection، وMicrosoft، وAmazon Web Services، وOracle. ووفقاً للبيان الرسمي، فإن إدراج ثماني شركات، ومن بينها Oracle، يأتي لتصحيح تقارير أولية كانت قد ذكرت سبع شركات فقط.
تعزيز اتخاذ القرار في البيئات المعقدة
تجري حالياً عملية إدماج التقنيات الجديدة ضمن مستويات حماية البيانات الحكومية الحساسة، وتحديداً المستويين Impact Level 6 وImpact Level 7. وتهدف الوزارة من هذه الخطوة إلى تسهيل عمليات دمج البيانات، وتحسين الوعي بالموقف العملياتي، بالإضافة إلى دعم قدرة المقاتلين على اتخاذ القرار في الميادين المعقدة، حيث تلتزم الشركات الثماني بتوفير الموارد اللازمة لتشغيل تقنياتها في كلا المستويين الأمنيين.
وتستند هذه الاتفاقات إلى استراتيجية تسريع الذكاء الاصطناعي التي ترتكز على 3 محاور أساسية، تشمل القتال الميداني، والعمليات الاستخباراتية، والأعمال المؤسسية والإدارية.
وعلى الصعيد التطبيقي، سجلت المنصة الرسمية GenAI.mil استخدام أكثر من 1.3 مليون فرد من قطاعات الوزارة لهذه التقنيات؛ حيث شهدت المنصة تنفيذ عشرات الملايين من الأوامر النصية، ونشر مئات الآلاف من “الوكلاء” خلال فترة لم تتجاوز 5 أشهر.
استراتيجية تعدد الموردين والمرونة التقنية
تتبنى وزارة الدفاع بنية تقنية قائمة على تعدد الموردين لتجنب الارتهان لمزود واحد، وهو توجه يضمن مرونة طويلة الأمد للقوة المشتركة الأمريكية في مواجهة المتطلبات التقنية المتغيرة.
وقد سبق هذا التوسع إعلان شركة OpenAI عن توفير نسخة مخصصة من ChatGPT عبر منصة GenAI.mil للاستخدامات غير المصنفة. وتعمل هذه النسخة ضمن بيئة سحابية حكومية مصرح بها، مع ضمان عزل البيانات وعدم استخدامها في تدريب النماذج العامة. وتشمل المهام التي تدعمها هذه التقنية تلخيص الوثائق، ومراجعة مواد التوريد، وإعداد التقارير، بالإضافة إلى دعم عمليات البحث والتخطيط.
ضوابط الاستخدام والرقابة البشرية
كشفت OpenAI عن اتفاق منفصل مع البنتاغون في 28 فبراير 2026 لنشر أنظمة في بيئات مصنفة، مع تحديث في 2 مارس 2026 يضع ضوابط محددة:
- حظر استخدام الأدوات في المراقبة الداخلية للمواطنين الأميركيين.
- منع توجيه الأسلحة ذاتية التشغيل بصورة مستقلة في الحالات التي تتطلب سيطرة بشرية قانونية.
- بقاء الفرق الفنية والأمنية ضمن الحلقة التشغيلية لمتابعة الأنظمة.
أشارت تقارير إعلامية إلى أن هذا التوسع يتزامن مع نقاشات حول حدود الاعتماد على الآلات في الحروب. أوضحت هيلين تونر، من مركز الأمن والتقنيات الناشئة بجامعة Georgetown، فائدة الأنظمة في تحليل تغذيات المراقبة وتلخيص المعلومات، مع استمرار البحث في مخاطر التدريب والتدخل البشري.
كما تُستخدم هذه التقنيات في تسريع التعرف على الأهداف وتنظيم سلاسل الإمداد وصيانة المعدات، وسط تحذيرات تبرز من “انحياز الأتمتة”، وهو ميل الأفراد إلى منح الآلة ثقة تتجاوز قدراتها الفعلية.
وتعتزم وزارة الدفاع تشكيل مجموعة عمل تضم مختبرات الذكاء الاصطناعي، ومزودي الحوسبة السحابية، والمجتمعات السياسية بالوزارة؛ بهدف مناقشة القدرات الناشئة وقضايا الخصوصية وتحديات الأمن القومي المرتبطة بحضور الذكاء الاصطناعي في البنية العسكرية.








