شركة OpenAI تحذر من ارتفاع المخاطر السيبرانية لنماذجها القادمة

OpenAI تعلن عن خطوات جديدة لدعم المدافعين السيبرانيين في مواجهة التهديدات الناشئة

شركة OpenAI تحذر من ارتفاع المخاطر السيبرانية لنماذجها القادمة
تحذيرات OpenAI تعكس خطورة الاستخدام السيئ لنماذج الذكاء الاصطناعي وتؤكد على ضرورة تطوير أدوات دفاعية موازية

حذرت شركة OpenAI، المطورة لـChatGPT، من أن نماذج الذكاء الاصطناعي القادمة التي تعمل على تطويرها قد تشكل تهديداً سيبرانياً عالياً، نظراً للتطور السريع في قدراتها. وأوضحت الشركة في منشور حديث أن هذه النماذج قد تتمكن مستقبلاً من ابتكار أدوات هجومية متقدمة، من بينها ثغرات لم تكشف سابقاً تستخدم عن بعد ضد أنظمة محمية، أو تقديم دعم مباشر لعمليات اختراق معقدة تستهدف منشآت صناعية أو مؤسسية، بما يؤثر على الواقع الفعلي.

ورغم هذا التحذير، أكدت OpenAI أنها تستثمر جهودها في تطوير إمكانيات دفاعية ضمن نماذجها، وتطوير أدوات تتيح للمدافعين السيبرانيين تنفيذ مهام مثل تدقيق الشيفرات وإصلاح الثغرات بطريقة أكثر سهولة وفاعلية.

وأشارت الشركة إلى أنها تعتمد على مزيج من ضوابط التحكم في الوصول، وتعزيز البنية التحتية، وإجراءات رقابية دقيقة تشمل مراقبة حركة البيانات، وذلك للحد من استخدام هذه النماذج في سياقات ضارة.

ضمن هذه الاستراتيجية، تعتزم OpenAI قريباً إطلاق برنامج يتيح وصولاً تدريجياً لقدرات محسنة للمستخدمين المعنيين بالدفاع السيبراني، وفق معايير محددة، وذلك لتعزيز قدراتهم على مواجهة التهديدات المتطورة.

كما أعلنت الشركة عن تشكيل مجموعة استشارية جديدة باسم Frontier Risk Council، تضم نخبة من خبراء الأمن السيبراني والممارسين المتخصصين. وتهدف هذه المجموعة إلى التعاون الوثيق مع فرق العمل داخل OpenAI لمواجهة التحديات الناشئة، على أن تنطلق بتركيزها على الأمن السيبراني، مع إمكانية التوسّع لاحقاً إلى مجالات أخرى مرتبطة بالقدرات التقنية المتقدمة.

الموثوقة والمعتمدة لدى خبراء الأمن السيبراني

تقرأ في نشرتنا التي تصلك كل أسبوع:

  • أحدث أخبار ومستجدات الأمن السيبراني محليًا وعالميًا.
  • تحليلات وتقارير دقيقة يقدمها خبراء المجال.
  • نصائح عملية لتطوير استراتيجياتك السيبرانية.
  • مراجعات شاملة لأهم الأحداث والتطورات التقنية
Go to Top