بدأت OpenAI إتاحة نموذجها المتخصص GPT-5.5-Cyber ضمن طرح محدود لفرق وخبراء أمن سيبراني موثوقين؛ في خطوة تعكس اتجاهاً متزايداً لدى شركات الذكاء الاصطناعي نحو منح المدافعين قدرات متقدمة في اكتشاف الثغرات وتحليل المخاطر، مع إبقاء الوصول إلى هذه الأدوات تحت ضوابط تحقق صارمة.
يستهدف النموذج الجديد فرق الأمن السيبراني التي تعمل على حماية البنى التحتية والأنظمة الحساسة فقط، دون طرحه للاستخدام العام. ويأتي ذلك في وقت تثير فيه النماذج القادرة على تنفيذ مهام أمنية متقدمة نقاشاً واسعاً حول التوازن بين تعزيز الدفاعات الرقمية ومنع استخدامها في أنشطة هجومية.
ويعد GPT-5.5-Cyber نسخة متخصصة من نموذج GPT-5.5، مصممة لمساعدة فرق الأمن في مهام مثل تحليل الثغرات، واختبار الأنظمة، ودراسة البرمجيات الخبيثة، ومحاكاة سيناريوهات الهجوم بهدف تحسين الجاهزية الدفاعية. غير أن هذه القدرات ذاتها تفرض قيوداً إضافية على التوزيع؛ كونها قد تصبح خطرة إذا وصلت إلى جهات غير موثوقة.
وتضع OpenAI الوصول إلى هذه النسخة ضمن مسار تحقق مخصص عبر برنامج “الوصول الموثوق للأمن السيبراني” للباحثين والشركات والفرق الأمنية المعتمدة؛ بما يسمح بمستويات مختلفة من الصلاحيات بحسب طبيعة الجهة المستخدمة وحساسية المهام المطلوبة. وتعكس هذه الآلية محاولة لبناء نموذج وصول آمن يتيح الاستفادة العملية من الذكاء الاصطناعي في الأمن السيبراني دون فتح الباب أمام الاستخدام غير المنضبط.
يأتي هذا الطرح بعد أسابيع من تحركات مشابهة في السوق، أبرزها إتاحة Anthropic نموذجها الأمني Mythos ضمن نطاق محدود عبر مبادرة Project Glasswing. وقد دفع ذلك شركات الذكاء الاصطناعي إلى مواجهة أسئلة تنظيمية متزايدة، خاصة في الولايات المتحدة، بشأن كيفية مراجعة النماذج عالية المخاطر قبل توسيع استخدامها، ودور الجهات الحكومية في تقييم آثارها على الأمن القومي.
وتشير هذه التطورات إلى أن الأمن السيبراني أصبح أحد أكثر المجالات حساسية في سباق النماذج المتقدمة؛ فالقدرة على العثور على ثغرات برمجية أو تحليل سلاسل هجوم معقدة قد تمنح فرق الدفاع سرعة أكبر في المعالجة والاستجابة، لكنها في المقابل ترفع من أهمية الحوكمة، وتحديد المستخدمين المصرح لهم، ومراقبة الاستخدام بعد الإتاحة.









