اختبارات أمنية أميركية لنماذج Google وMicrosoft وxAI قبل طرحها

اتفاقات جديدة تمنح واشنطن وصولا مبكرا إلى نماذج ذكاء اصطناعي متقدمة لتقييم مخاطرها الأمنية.

اختبارات أمنية أميركية لنماذج Google وMicrosoft وxAI قبل طرحها
اتفاقات رسمية تمنح الحكومة الأمريكية صلاحية فحص نماذج الذكاء الاصطناعي قبل طرحها للجمهور.

أبرمت شركات Google DeepMind وMicrosoft وxAI اتفاقات رسمية مع مركز معايير وابتكار الذكاء الاصطناعي (CAISI) التابع للمعهد الوطني الأمريكي للمعايير والتقنية (NIST)، تمنح الحكومة الأمريكية صلاحية تقييم نماذج الذكاء الاصطناعي المتقدمة قبل طرحها للعموم؛ وتأتي هذه الخطوة لتعزيز نطاق الاختبارات الأمنية المرتبطة بالأمن القومي.

ووفقاً لبيان NIST الصادر يوم الثلاثاء 5 مايو 2026، تتضمن هذه الاتفاقات إجراء تقييمات استباقية وأبحاثاً تخصصية لقياس قدرات النماذج الحدودية ورفع مستويات أمن الذكاء الاصطناعي. كما تتيح الاتفاقات استمرار عمليات التقييم بعد إطلاق النماذج، مع إمكانية إجراء اختبارات في بيئات مصنفة عند الحاجة، بمشاركة خبراء حكوميين من خلال فريق TRAINS المعني بمعالجة مخاوف الأمن القومي المرتبطة بالذكاء الاصطناعي.

تستند هذه الاتفاقات إلى شراكات سابقة مع شركتي OpenAI وAnthropic، حيث جرى تحديثها لتتوافق مع توجيهات CAISI ووزارة التجارة وخطة الولايات المتحدة للذكاء الاصطناعي. وأشار NIST إلى أن المركز أتم حتى الآن أكثر من 40 تقييماً شملت نماذج متقدمة لم تكن متاحة للجمهور بعد، ما يؤكد التوجه نحو دمج الاختبارات الحكومية المبكرة ضمن دورة تطوير الأنظمة الأكثر تطوراً.

وتبرز أهمية هذا الإجراء في سماح المطورين للمقيمين بالوصول إلى نسخ من النماذج مع تقليص أو إزالة بعض القيود الوقائية، بهدف التحقق من القدرات والمخاطر التي قد لا تظهر في الاختبارات التقليدية. ويشمل ذلك فحص احتمالات الاستخدام في مجالات الأمن السيبراني  والمخاطر البيولوجية والكيميائية، وقياس كفاءة النماذج في تنفيذ مهام حساسة ذات تأثير مرتفع.

وفي هذا السياق، أكد كريس فال، مدير CAISI، أن القياس المستقل والدقيق يعد ركيزة أساسية لفهم الذكاء الاصطناعي المتقدم وتبعاته على الأمن القومي. ويوضح هذا التصريح أن الهدف من الاتفاقات ليس منح اعتمادات تجارية، بل تأسيس قناة مؤسسية لاختبار القدرات التقنية قبل تحويلها إلى منتجات واسعة الانتشار.

من جهة أخرى، أشارت تقارير إلى أن توسيع إطار عمل CAISI قد ينعكس مباشرة على مدراء التقنية في المؤسسات، لا سيما الشركات المرتبطة بعقود حكومية أو التي تعمل في قطاعات خاضعة للتنظيم؛ إذ قد يصبح اختيار نموذج لم يخضع لتقييم حكومي أو لا يتوافق مع معايير الأمن القومي عاملاً مؤثراً في حسابات المخاطر، جنباً إلى جنب مع معايير الأداء والتكلفة والامتثال.

فيما أوضح تقرير آخر أن هذه الاختبارات ستُجرى تحت مظلة وزارة التجارة، وقد تمت إعادة التفاوض بشأنها لتنسجم مع توجهات الإدارة الأمريكية الحالية. ونقلت المنصة تأييد جهات في القطاع التقني لدور CAISI كمركز اتحادي مرجعي للتقييم، خاصة عند التعامل مع نماذج ذات آثار محتملة على السلامة العامة.

ورغم أن هذه الاتفاقات لا تعني فرض نظام ترخيص عام قبل الإطلاق، إلا أنها تؤشر إلى تنامي دور الدولة في تقييم الجيل القادم من الأنظمة. وبانضمام Google DeepMind وMicrosoft وxAI إلى الإطار الذي يضم OpenAI وAnthropic، يترسخ مسار الاختبار السابق للنشر كركيزة في العلاقة بين المختبرات التقنية الكبرى والحكومة الأمريكية.

الموثوقة والمعتمدة لدى خبراء الأمن السيبراني

تقرأ في نشرتنا التي تصلك كل أسبوع:

  • أحدث أخبار ومستجدات الأمن السيبراني محليًا وعالميًا.
  • تحليلات وتقارير دقيقة يقدمها خبراء المجال.
  • نصائح عملية لتطوير استراتيجياتك السيبرانية.
  • مراجعات شاملة لأهم الأحداث والتطورات التقنية
اذهب إلى الأعلى