أطلق الرئيس الأميركي دونالد ترامب توجيهاً رسمياً يقضي بحظر استخدام تقنيات شركة Anthropic داخل الوكالات الفيدرالية الأميركية. يمثل هذا القرار تصعيداً يمزج بين التوجه السياسي المباشر وأدوات الردع التنظيمي تجاه شركات الذكاء الاصطناعي الوطنية التي تطور نماذج لغوية متقدمة. ويؤدي هذا الإجراء إلى إعادة ترسيم حدود التعاون المشترك بين المؤسسات الحكومية ومزودي خدمات الذكاء الاصطناعي، خاصة بعد تحول هذه التقنيات إلى جزء أصيل من الآليات التشغيلية للمرافق العامة.
وتعود جذور الأزمة إلى خلاف معلن بين وزارة الدفاع الأميركية والشركة حول ضوابط الاستخدام العسكري لنموذج Claude، حيث تمسكت Anthropic بسياسات سلامة صارمة تمنع توظيف تقنياتها في عمليات المراقبة الواسعة داخل الولايات المتحدة، أو دعم الأنظمة المستقلة القادرة على اتخاذ قرارات القتل دون إشراف بشري مباشر.
وفي المقابل، سعى مسؤولون في قطاع الدفاع إلى توسيع نطاق الاعتماد على النموذج في مهام تتسم بحساسية عالية، مستندين إلى اعتبارات القدرة التشغيلية والسيادة التقنية للدولة. ونقلت شبكة CBS News أن البنتاغون قدم مقترحات لتسوية النزاع، إلا أن الشركة وجدت أن تلك العروض تفتقر إلى الضمانات الكافية لتبديد مخاوفها المتعلقة بالسلامة والأخلاقيات التقنية.
تصنيف Claude كمخاطرة أمنية ضمن سلاسل الإمداد الدفاعية
تجاوز الخلاف حدود التعاقدات التجارية ليأخذ أبعاداً أمنية حادة بعد قيام وزير الدفاع بيت هيغسيث بتصنيف شركة Anthropic ضمن قائمة المخاطر التي تهدد سلامة سلسلة الإمداد. ويمتد أثر هذا التوصيف القانوني والتقني ليشمل كافة المتعاقدين والمقاولين الخارجيين المرتبطين بوزارة الدفاع، ما يفرض عزلاً عملياً لتقنيات الشركة عن البيئات المعلوماتية المتصلة بالأمن القومي.
وتتضمن الإجراءات الحالية إلغاء الترتيبات التعاقدية القائمة مع الوزارة، بالتوازي مع تحديد مرحلة انتقالية تهدف إلى استبعاد النموذج من الأنظمة الدفاعية بشكل كامل.
ووصفت وكالة أسوشييتد برس هذا النزاع بالحدث غير المسبوق، نظراً لاستخدام مصطلح “مخاطر سلسلة الإمداد” ضد شركة تكنولوجية أمريكية رائدة في قلب السوق المحلي، وهو مصطلح يُوظف عادة لتبرير إجراءات الحظر الواسعة التي تتخطى الجهة المتعاقدة مباشرة لتشمل محيطها التشغيلي بالكامل.
وبموجب هذا التحول، انتقل ملف الشركة من مجرد نقاش حول سياسات الاستخدام إلى قضية أمن قومي تدار بلغة التهديدات الوجودية للبنية التحتية الرقمية.
تحولات السوق الحكومي وانتقال السيادة إلى البدائل التقنية والمرنة
أوجد قرار الحظر فراغاً مفاجئاً في حجم الطلب الحكومي على خدمات الذكاء الاصطناعي، الأمر الذي منح منافسين مثل OpenAI وGoogle وxAI فرصة لسد هذه الفجوة التعاقدية.
وأشارت تقارير وكالة أسوشييتد برس وMarketWatch إلى وجود تحركات سريعة من هذه الشركات لتقديم بدائل تقنية تلبي احتياجات الوكالات الفيدرالية في ظل تسارع وتيرة المشتريات الحكومية المخصصة لهذا القطاع. وذكرت صحيفة The Guardian أن شركة OpenAI بدأت بالفعل في صياغة ترتيبات جديدة مع وزارة الدفاع عقب تعثر مسار التفاوض مع Anthropic، مع تقديم تأكيدات تتعلق بالالتزام بالقيود الفيدرالية تجاه الاستخدامات المثيرة للجدل.
ويعكس هذا المشهد تحولاً في موازين القوى داخل سوق التكنولوجيا، إذ أصبحت مرونة التفاوض والقدرة على إدارة المخاطر التعاقدية تتقدم أحياناً على التميز التقني الصرف.
وتتعامل الإدارة الأميركية حالياً مع نموذج Claude بوصفه مكوناً حرجاً في البنية التحتية الرقمية، على غرار تقييم الدول لخدمات الحوسبة السحابية ومنصات الهوية الرقمية. ولا ينحصر الخطر هنا في احتمالات الاختراق السيبراني فقط، بل يمتد ليشمل قدرة المزود على فرض قيود تشغيلية أو سياسية تؤثر على استمرارية الخدمة في أوقات الأزمات.
وتجد فرق الأمن السيبراني وحوكمة البيانات نفسها أمام تحديات تقنية تتعلق بمصير سجلات المحادثات وسلاسل الأدلة الرقمية عند فك الارتباط السريع مع المزود، مما يتطلب وضع خطط استمرارية أعمال بديلة لضمان عدم توقف العمليات الحكومية التي تداخلت مع هذه النماذج في مهام التحليل وإنتاج المحتوى.








