شركة OpenAI تطلق وضع الإغلاق في ChatGPT لخفض مخاطر هجمات حقن الأوامر

وضع أمني اختياري يشدد القيود على الأدوات والاتصالات الخارجية لحماية المستخدمين الأكثر تعرضاً لهجمات متقدمة

شركة OpenAI تطلق وضع الإغلاق في ChatGPT لخفض مخاطر هجمات حقن الأوامر
Lockdown Mode وElevated Risk يقدمان طبقة حماية اضافية عند استخدام الادوات والاتصالات الخارجية في ChatGPT.

تتبع شركة OpenAI استراتيجية أمنية جديدة تهدف إلى تعزيز حماية مستخدمي ChatGPT من الهجمات السيبرانية المتطورة، وذلك عبر إطلاق ميزة وضع الإغلاق (Lockdown Mode) واعتماد ملصقات تحذيرية تحت مسمى المخاطر المرتفعة (Elevated Risk). وتأتي هذه الخطوات لتقليل فرص استغلال الذكاء الاصطناعي في عمليات تسريب البيانات أو تنفيذ أوامر غير مصرح بها.

حماية متقدمة ضد هجمات حقن الأوامر

يستهدف وضع الإغلاق (Lockdown Mode) بشكل أساسي مواجهة ما يعرف بهجمات حقن الأوامر (Prompt Injection). وتعتمد هذه الهجمات على تضمين تعليمات مخفية داخل نصوص أو ملفات أو صفحات ويب يقرأها النموذج، وتدفعه لتنفيذ أوامر لم يطلبها المستخدم، مثل استخراج معلومات حساسة أو إرسال بيانات إلى جهات خارجية.

وتصف OpenAI هذا الوضع بأنه إعداد أمني اختياري مخصص لفئات تواجه تهديدات معقدة، مثل القيادات التنفيذية في الشركات وفرق الأمن السيبراني. وتعتمد فلسفة هذا الوضع على تقليص مساحة الهجوم، أي تعطيل الميزات التي قد يستغلها المهاجمون كقنوات لتهريب البيانات.

قيود تقنية لضبط الاتصال الخارجي

يفرض تفعيل Lockdown Mode قيوداً صارمة على كيفية تعامل ChatGPT مع شبكة الإنترنت والأدوات الخارجية، وتشمل هذه القيود:

  • تصفح المحتوى المؤرشف: يقتصر البحث في الويب على المحتوى المحفوظ مسبقاً، ما يمنع النظام من إرسال طلبات مباشرة ومفاجئة إلى مواقع قد تكون مشبوهة.
  • تعطيل الميزات المتقدمة: يتم إيقاف ميزات البحث المعمق (Deep Research) ووضع الوكيل (Agent Mode)، بالإضافة إلى منع منصة Canvas من الوصول إلى الشبكة.
  • تقييد الوسائط والملفات: يمنع النظام تنزيل الملفات بغرض التحليل التلقائي، كما تتوقف الاستجابات عن إظهار الصور، مع الاحتفاظ بحق المستخدم في رفع ملفاته الخاصة يدوياً.

وتهدف هذه الإجراءات إلى الحد من تسريب البيانات (Data Exfiltration) إلى خوادم خارجية عبر أدوات التصفح أو الربط التقني.

إدارة مؤسسية وتوسيع نطاق الخدمة

وفرت OpenAI إمكانية إدارة هذا الوضع داخل بيئات العمل عبر إعدادات مساحة العمل، حيث يمكن لمدراء النظام إنشاء أدوار مخصصة تفرض قيوداً أمنية إضافية. وتسمح هذه الأدوات للمسؤولين بتحديد التطبيقات والمنصات التي يمكن للموظفين التفاعل معها، لضمان عدم تحول الموصلات إلى ثغرات أمنية تتيح للمهاجمين الكتابة أو التفاعل مع خدمات مؤسسية أخرى.

وتتوفر الميزة حالياً لمشتركي الحزم المؤسسية والتعليمية والطبية، وهي:

  1. ChatGPT Enterprise
  2. ChatGPT Edu
  3. ChatGPT for Healthcare
  4. ChatGPT for Teachers

وتعتزم الشركة توفير هذه الميزات للمستخدمين الأفراد خلال الأشهر القليلة المقبلة.

ملصقات المخاطر المرتفعة للشفافية الأمنية

بالتزامن مع هذه التحديثات، بدأت OpenAI بإظهار رسائل تحذيرية بعنوان المخاطر المرتفعة داخل منتجاتها، بما في ذلك ChatGPT وChatGPT Atlas وCodex. تظهر هذه الملصقات عند استخدام ميزات تزيد من احتمالية التعرض لتهديدات أمنية، مثل ربط النموذج بالويب أو بتطبيقات خارجية.

وتوضح هذه الملصقات للمستخدم طبيعة المخاطر المحتملة والسيناريوهات التي يكون فيها استخدام الميزة آمناً. فعلى سبيل المثال، في منصة Codex، قد يظهر التحذير عند منح النظام وصولاً شبكياً للبحث عن التوثيق الفني، ليكون المستخدم على دراية بالمفاضلة بين الكفاءة التشغيلية والمخاطر الأمنية. وتؤكد الشركة أنها ستزيل هذه الوسوم التحذيرية عن أي ميزة بمجرد تطوير تحسينات أمنية كافية تجعلها آمنة للاستخدام العام.

الموثوقة والمعتمدة لدى خبراء الأمن السيبراني

تقرأ في نشرتنا التي تصلك كل أسبوع:

  • أحدث أخبار ومستجدات الأمن السيبراني محليًا وعالميًا.
  • تحليلات وتقارير دقيقة يقدمها خبراء المجال.
  • نصائح عملية لتطوير استراتيجياتك السيبرانية.
  • مراجعات شاملة لأهم الأحداث والتطورات التقنية
اذهب إلى الأعلى