شركة OpenAI تبرم اتفاقاً مع البنتاغون بعد ساعات من حظر إدارة ترامب استخدام منتجات Anthropic 

تحولات استراتيجية في تعاقدات الذكاء الاصطناعي العسكرية بين OpenAI وAnthropic

شركة OpenAI تبرم اتفاقاً مع البنتاغون بعد ساعات من حظر إدارة ترامب استخدام منتجات Anthropic 
اتفاق OpenAI مع البنتاغون يربط الذكاء الاصطناعي بضوابط سلامة مكتوبة داخل شبكات عسكرية عالية الحساسية.

شهدت الساحة التقنية والسياسية في الولايات المتحدة تطوراً مفصلياً، حيث أعلن سام ألتمان، الرئيس التنفيذي لشركة OpenAI، توقيع اتفاقية رسمية مع وزارة الدفاع الأميركية. تمنح هذه الاتفاقية الإذن لإدراج نماذج الذكاء الاصطناعي الخاصة بالشركة ضمن الأنظمة العسكرية المصنفة Classified Systems، وهي البيئات الرقمية عالية السرية التي تدار بعيداً عن شبكة الإنترنت العامة.

وتتضمن الاتفاقية ضوابط استخدام مكتوبة أكد ألتمان أنها تمثل ركيزة أساسية في مبادئ السلامة التي تتبناها الشركة، مشيراً إلى أن هذه الخطوة تأتي لتعزيز التعاون التقني مع المؤسسة العسكرية تحت إطار تنظيمي محدد.

تزامن هذا الإعلان مع قرار أصدرته الإدارة الأميركية يقضي بإلزام الوكالات الاتحادية بوقف التعامل مع أدوات شركة Anthropic بشكل فوري. واقترن هذا التوجيه بقرار من وزير الدفاع Pete Hegseth صنف فيه الشركة بأنها تشكل خطراً على سلسلة الإمداد. وقد أثار هذا التباين الحاد في التعامل مع الشركتين تساؤلات جوهرية حول المعايير التي استوفتها OpenAI وفشلت في تحقيقها Anthropic، خاصة وأن التقارير تشير إلى تشابه في المبادئ العامة التي تنادي بها كلتا الشركتين فيما يخص سلامة الاستخدام العسكري.

ضوابط التشغيل والالتزام التقني في البيئات العسكرية الحساسة

ترتكز الاتفاقية بين OpenAI ووزارة الدفاع على مبدأين أساسيين للسلامة، أولهما حظر استخدام تقنيات الشركة في عمليات المراقبة الجماعية داخل الولايات المتحدة، وثانيهما ضرورة وجود إشراف بشري مباشر عند اتخاذ قرارات تتعلق باستخدام القوة، بما يشمل نظم الأسلحة ذاتية التشغيل.

وذكر ألتمان أن هذه المبادئ ليست مجرد نصوص تعاقدية، بل هي انعكاس للقوانين والسياسات القائمة التي وافقت عليها الجهات العسكرية. ولضمان تنفيذ هذه الضوابط، تعهدت الشركة ببناء ضمانات تقنية برمجية تضبط سلوك النماذج آلياً، استجابة لمتطلبات الطرف الحكومي الساعي لضمان موثوقية المخرجات التقنية في الميدان.

تتضمن خطة التنفيذ إرسال مهندسين متخصصين من فئة (Forward Deployed Engineers) للعمل مباشرة داخل مقرات وزارة الدفاع. تهدف هذه الخطوة إلى تقديم دعم هندسي قريب من المستخدم النهائي، وتحويل الضوابط النظرية إلى آليات تشغيلية يومية تضمن سلامة النماذج أثناء عملها في الشبكات المغلقة.

وفي سياق متصل، شددت المراجعات الصحفية على ضرورة الالتزام بالتسمية الرسمية “Department of Defense” وتجنب مصطلح “Department of War” الذي ظهر في بعض التغطيات غير الرسمية، وذلك لضمان الدقة القانونية والسياسية للجهة المتعاقدة وتفادي أي التباس في التوصيف الإداري.

تداعيات تصنيف سلسلة الإمداد وأثرها على قطاع التقنية

أدى التوجيه الرئاسي بوقف التعامل مع Anthropic إلى توسيع دائرة التأثير لتشمل المتعاقدين من القطاع الخاص، حيث يفرض تصنيف خطر سلسلة الإمداد على الشركات التي تعمل مع الحكومة إثبات عدم تقاطع مشاريعها العسكرية مع منتجات Anthropic.

من جانبها، أعلنت Anthropic عزمها اللجوء إلى القضاء للطعن في هذا التصنيف، متمسكة بموقفها الذي تسبب في تعثر المفاوضات السابقة مع البنتاغون، والمتعلق برفضها إدخال نماذجها في أنظمة الأسلحة التي قد تعمل دون مسؤولية بشرية واضحة. وبرزت مفارقة في أن القيود التي طلبتها Anthropic تتشابه في عناوينها العريضة مع الضوابط التي وقعت عليها OpenAI، ما دفع بجهات إعلامية مثل CNN لطلب توضيحات حول الفروق الدقيقة في النصوص التنفيذية.

دعا ألتمان إلى توحيد هذه المعايير لتشمل كافة شركات الذكاء الاصطناعي، معرباً عن رغبته في تحول المشهد من النزاعات القانونية إلى اتفاقات تشغيلية معقولة. وقد حظي إعلان OpenAI بدعم علني من كبار المسؤولين في وزارة الدفاع، حيث أشار Michael Sellman، المسؤول عن ملف التكنولوجيا، إلى أن وجود شريك موثوق يتعامل بحسن نية يعد أمراً حاسماً في عصر الذكاء الاصطناعي، خاصة عندما ترتبط القرارات بسلامة المقاتلين. 

الموثوقة والمعتمدة لدى خبراء الأمن السيبراني

تقرأ في نشرتنا التي تصلك كل أسبوع:

  • أحدث أخبار ومستجدات الأمن السيبراني محليًا وعالميًا.
  • تحليلات وتقارير دقيقة يقدمها خبراء المجال.
  • نصائح عملية لتطوير استراتيجياتك السيبرانية.
  • مراجعات شاملة لأهم الأحداث والتطورات التقنية
اذهب إلى الأعلى