كشفت تقارير، نشرتها صحيفة The Wall Street Journal، عن استخدام وحدات تابعة لوزارة الدفاع الأميركية نموذج الذكاء الاصطناعي Claude التابع لشركة Anthropic. شملت هذه الاستخدامات دعم أعمال التحليل الاستخباري، وتحديد الأهداف، ومحاكاة السيناريوهات القتالية خلال عمليات نُسبت إلى نشاط عسكري أميركي إسرائيلي مشترك أطلق عليها اسم “زئير الأسد”، استهدفت مواقع حكومية إيرانية رئيسية، بما في ذلك منشآت نووية، وبنية تحتية عسكرية استراتيجية.
تكتسب هذه الوقائع أهمية خاصة لكونها تزامنت مع صدور توجيه رئاسي يقضي بوقف التعامل مع الشركة وتصنيفها ضمن مخاطر سلسلة الإمداد على المستوى الفيدرالي.
ويبرز الخلاف الراهن تبايناً في الرؤى؛ إذ تعاملت الحكومة مع نفسها بصفتها مستخدماً سيادياً يرى أن متطلبات المهام القتالية تتجاوز القيود التي يفرضها المورد التجاري، في حين تمسكت الشركة بأن المعايير الأخلاقية والتقنية تمثل جزءاً أصيلاً من تصميم السلامة في أنظمتها ولا تعد تفصيلاً ثانوياً يمكن تجاوزه.
مخاطر سلسلة الإمداد وتحديات الاستبدال الهندسي للنماذج
يعكس تصنيف Anthropic ضمن مخاطر سلسلة الإمداد 4 مخاوف رئيسية في أدبيات الأمن السيبراني؛ أولها احتمال التلاعب بالمورد عبر اختراق خطوطه البرمجية، وثانيها خطر الاعتماد الحرج الذي يجعل استبدال الأداة عملية معقدة تهدد استمرارية العمل. ويتعلق الخطر الثالث بانتقال البيانات الحساسة عبر المزود الخارجي أو الشريك السحابي، بينما يتمثل الخطر الرابع في غموض سلوك النموذج ومخرجاته داخل البيئات السرية.
وبحسب تقارير Axios وBusiness Insider، فإن القضية الحالية دمجت بين محوري الاعتماد الحرج وأمن البيانات، مع وجود إشارات إلى استخدام هذا التصنيف كأداة ضغط تنظيمية. وتؤكد الوقائع أن استبدال نموذج ذكاء اصطناعي ليس عملية تبديل فورية، بل هو مشروع هندسي يتطلب دورات تحقق واختبارات امتثال لضمان عدم تأثر جودة المخرجات وسرعة القرار العسكري، وهو ما يفسر تقارير انتقال وزارة الدفاع نحو ترتيبات مع شركة OpenAI لتوفير نماذجها وفق التزامات محددة تتعلق بالسلامة والقيود الأخلاقية.








