البنتاغون يلوح بإنهاء شراكته مع Anthropic بسبب حدود الاستخدام على Claude

خلاف على حدود استخدام Claude في التطبيقات العسكرية يدفع وزارة الدفاع الأميركية لبحث تقليص الشراكة مع Anthropic.

البنتاغون يلوح بإنهاء شراكته مع Anthropic بسبب حدود الاستخدام على Claude
نقاشات استخدام نماذج الذكاء الاصطناعي في الدفاع تكشف توتراً بين متطلبات الحرب وضوابط السلامة

يواجه التعاون بين وزارة الدفاع الأميركية (البنتاغون) وشركة Anthropic اختباراً حاسماً خلال العام الحالي، إثر خلافات متصاعدة حول حدود استخدام نموذج الذكاء الاصطناعي Claude في البيئات العسكرية الحساسة. وتكشف هذه التطورات عن فجوة تتسع بين متطلبات العمليات القتالية الواقعية ومعايير السلامة التي تفرضها شركات التقنية.

تباين الرؤى حول سقف الاستخدام

تدرس وزارة الدفاع الأميركية حالياً تقليص علاقتها مع Anthropic أو إنهاءها بشكل كامل، وفقاً لما نقلته مصادر أميركية. ويعود السبب الرئيسي إلى سقف الاستخدام الذي تضعه الشركة على نموذج Claude.

وبحسب تقرير نشرته Axios، يضغط البنتاغون على 4 شركات رائدة في مجال الذكاء الاصطناعي للسماح باستخدام أدواتها في كافة الأغراض القانونية داخل القطاعات الأكثر حساسية، بما في ذلك تطوير الأسلحة، وجمع المعلومات الاستخبارية، وإدارة العمليات في ساحات القتال. وحتى الآن، لم توافق Anthropic على هذه المعايير رغم مفاوضات استمرت أشهراً.

نقاط الخلاف: المراقبة والأسلحة المستقلة

تتمسك Anthropic باستبعاد مجالين محددين من نطاق الاستخدام:

  1. المراقبة الجماعية: ترفض الشركة استخدام تقنياتها في تتبع واسع النطاق للمواطنين الأميركيين.
  2. الأسلحة المستقلة: تضع قيوداً على دمج الذكاء الاصطناعي في أنظمة سلاح تعمل دون تدخل بشري كامل.

ويرى مسؤولون في البنتاغون أن هذه المساحات الرمادية تجعل من الصعب إدارة نموذج تشغيلي يتطلب التفاوض مع الشركة في كل حالة على حدة، ما يثير مخاوف من حجب Claude لخدماته فجأة أثناء تنفيذ عمليات عسكرية حرجة.

حادثة فنزويلا تذكي التوتر

ارتبط تصاعد التوتر مؤخراً بأنباء عن استخدام Claude ضمن عملية أميركية استهدفت القبض على الرئيس الفنزويلي نيكولاس مادورو، وذلك عبر شراكة بين Anthropic وشركة Palantir. وأشارت التقارير إلى استفسار أحد مدراء Anthropic عن احتمالية استخدام النموذج في العملية، مع تلميحات بالاعتراض نتيجة وجود اشتباكات مباشرة وإصابات.

من جهتها، نفت Anthropic هذه الادعاءات جملة وتفصيلاً، مؤكدة أنها لم تناقش استخدام Claude في عمليات محددة مع وزارة الدفاع أو شركاء الصناعة، وأن استخدامه في المجال الاستخباري يتم وفق سياسات الشركة المعلنة.

عقد بقيمة 200 مليون دولار في مهب الريح

يهدد هذا الخلاف مستقبلاً عقداً وقعته Anthropic مع البنتاغون في صيف 2025، بقيمة تصل إلى 200 مليون دولار. ويهدف هذا الاتفاق التجريبي، ومدته عامان، إلى تطوير قدرات ذكاء اصطناعي متقدمة للاستخدامات الدفاعية تحت إشراف مكتب الرقمنة والذكاء الاصطناعي (CDAO).

ويعد Claude أول نموذج يدخل إلى الشبكات العسكرية المصنفة، وهي بيئات رقمية مغلقة وشديدة السرية تخضع لرقابة صارمة، بخلاف النماذج الأخرى مثل ChatGPT وGemini وGrok التي تعمل حالياً في بيئات غير مصنفة، مع استمرار المفاوضات لنقلها إلى النطاق المصنف.

الموثوقة والمعتمدة لدى خبراء الأمن السيبراني

تقرأ في نشرتنا التي تصلك كل أسبوع:

  • أحدث أخبار ومستجدات الأمن السيبراني محليًا وعالميًا.
  • تحليلات وتقارير دقيقة يقدمها خبراء المجال.
  • نصائح عملية لتطوير استراتيجياتك السيبرانية.
  • مراجعات شاملة لأهم الأحداث والتطورات التقنية
اذهب إلى الأعلى