حذرت شركة OpenAI، المطورة لـChatGPT، من أن نماذج الذكاء الاصطناعي القادمة التي تعمل على تطويرها قد تشكل تهديداً سيبرانياً عالياً، نظراً للتطور السريع في قدراتها. وأوضحت الشركة في منشور حديث أن هذه النماذج قد تتمكن مستقبلاً من ابتكار أدوات هجومية متقدمة، من بينها ثغرات لم تكشف سابقاً تستخدم عن بعد ضد أنظمة محمية، أو تقديم دعم مباشر لعمليات اختراق معقدة تستهدف منشآت صناعية أو مؤسسية، بما يؤثر على الواقع الفعلي.
ورغم هذا التحذير، أكدت OpenAI أنها تستثمر جهودها في تطوير إمكانيات دفاعية ضمن نماذجها، وتطوير أدوات تتيح للمدافعين السيبرانيين تنفيذ مهام مثل تدقيق الشيفرات وإصلاح الثغرات بطريقة أكثر سهولة وفاعلية.
وأشارت الشركة إلى أنها تعتمد على مزيج من ضوابط التحكم في الوصول، وتعزيز البنية التحتية، وإجراءات رقابية دقيقة تشمل مراقبة حركة البيانات، وذلك للحد من استخدام هذه النماذج في سياقات ضارة.
ضمن هذه الاستراتيجية، تعتزم OpenAI قريباً إطلاق برنامج يتيح وصولاً تدريجياً لقدرات محسنة للمستخدمين المعنيين بالدفاع السيبراني، وفق معايير محددة، وذلك لتعزيز قدراتهم على مواجهة التهديدات المتطورة.
كما أعلنت الشركة عن تشكيل مجموعة استشارية جديدة باسم Frontier Risk Council، تضم نخبة من خبراء الأمن السيبراني والممارسين المتخصصين. وتهدف هذه المجموعة إلى التعاون الوثيق مع فرق العمل داخل OpenAI لمواجهة التحديات الناشئة، على أن تنطلق بتركيزها على الأمن السيبراني، مع إمكانية التوسّع لاحقاً إلى مجالات أخرى مرتبطة بالقدرات التقنية المتقدمة.







