باحثون يكشفون ثغرات في ChatGPT تمكن المهاجمين من تسريب بيانات المستخدمين

ثغرات في GPT-4o وGPT-5 تتيح تنفيذ هجمات حقن غير مباشر وتحايل على آليات الأمان

باحثون يكشفون ثغرات في ChatGPT تمكن المهاجمين من تسريب بيانات المستخدمين
تقرير بحثي جديد يحذر من ثغرات في ChatGPT قد تتيح سرقة بيانات المستخدمين عبر هجمات حقن غير مباشر في المحتوى.

كشف باحثون في مجال الأمن السيبراني عن مجموعة جديدة من الثغرات في نظام ChatGPT التابع لـOpenAI، يمكن استغلالها لسرقة بيانات شخصية من ذاكرة المستخدمين وسجلات محادثاتهم دون علمهم. وأوضحت شركة Tenable اكتشاف 7 ثغرات وهجمات مختلفة في نماذج GPT-4o وGPT-5، وأن OpenAI تعاملت مع بعض هذه الثغرات.

وأشار الباحثان موشيه برنشتاين وليف ماتان إلى أن هذه الثغرات تجعل النظام عرضة لهجمات الحقن غير المباشر، والتي تمكن المهاجم من التلاعب بسلوك النموذج ودفعه لتنفيذ أوامر غير مقصودة أو ضارة.

وتضمنت الثغرات المكتشفة ما يلي:

  • ثغرة حقن غير مباشر عبر مواقع موثوقة في وضع التصفح، من خلال إدراج تعليمات خبيثة داخل تعليقات صفحات الويب التي يطلب المستخدم تلخيصها.
  • ثغرة Zero-click عند البحث، عبر استغلال صفحات تمت فهرستها من خلال محركات بحث مثل Bing أو SearchGPT.
  • ثغرة تنفيذ فوري للأوامر عبر روابط معدة بصيغة chatgpt.com/?q={Prompt} لتشغيل التعليمات تلقائياً.
  • ثغرة تجاوز آليات الأمان عبر استغلال النطاق bing.com الموثوق لدى ChatGPT لتضمين روابط إعلانات مزيفة.
  • تقنية حقن داخل المحادثة من خلال مواقع تحوي أوامر خفية تؤثر على الردود اللاحقة للنموذج.
  • تقنية إخفاء المحتوى الضار عبر ثغرة في عرض Markdown تسمح بإخفاء التعليمات داخل كتل الشيفرة.
  • تقنية حقن في الذاكرة عبر إدخال تعليمات مخفية في صفحات يتم تلخيصها، ما يؤدي إلى تلويث ذاكرة المستخدم.

وأشار التقرير إلى أن هذه الهجمات تتزامن مع ظهور تقنيات استغلال مشابهة ضد أنظمة ذكاء اصطناعي أخرى مثل Claude وCopilot وMicrosoft 365 Copilot، وتشمل أساليب مثل PromptJacking وClaude Pirate وAgent Session Smuggling وPrompt Inception وShadow Escape وCamoLeak وLatentBreak، والتي تعتمد جميعها على تجاوز آليات الحماية عبر حقن تعليمات مخفية في المحتوى أو البيانات المتبادلة بين الأنظمة.

وقال باحثو Tenable إن مشكلة حقن الأوامر تعد من القضايا البنيوية في طريقة عمل نماذج اللغة الكبيرة، ومن غير المرجح حلها جذرياً في المدى القريب، داعين شركات الذكاء الاصطناعي إلى التأكد من فاعلية آليات الحماية لديها مثل url_safe للحد من آثار هذه الهجمات.

ويأتي هذا التطور بعد أبحاث من جامعات Texas A&M وTexas وPurdue أظهرت أن تدريب النماذج على بيانات غير موثوقة أو منخفضة الجودة قد يؤدي إلى تلف الذاكرة، أي فقدان دقة النماذج وتدهور جودة مخرجاتها بسبب تلوث المحتوى في بيانات التدريب.

وفي الشهر الماضي، أصدرت Anthropic بالتعاون مع معهد أمن الذكاء الاصطناعي البريطاني ومعهد Alan Turing دراسة جديدة أكدت إمكانية زرع أبواب خلفية في نماذج الذكاء الاصطناعي، حتى الكبيرة منها، عبر إدخال 250 وثيقة مسمومة فقط، وهو رقم صغير مقارنة بالافتراضات السابقة التي كانت تشير إلى الحاجة لتعديل نسبة كبيرة من بيانات التدريب.

كما أظهرت دراسة من جامعة ستانفورد أن تحسين النماذج لتحقيق نتائج تنافسية في مجالات مثل المبيعات والانتخابات والتواصل الاجتماعي قد يؤدي إلى انحرافات خطيرة في السلوك، إذ تبدأ النماذج بتضخيم المعلومات المضللة أو التلاعب بالحقائق لتحقيق مكاسب آنية، في ظاهرة وصفها الباحثون باسم Moloch’s Bargain، والتي تنذر بتحول المنافسة في الذكاء الاصطناعي إلى سباق نحو فقدان الضوابط الأخلاقية والأمنية.

الموثوقة والمعتمدة لدى خبراء الأمن السيبراني

تقرأ في نشرتنا التي تصلك كل أسبوع:

  • أحدث أخبار ومستجدات الأمن السيبراني محليًا وعالميًا.
  • تحليلات وتقارير دقيقة يقدمها خبراء المجال.
  • نصائح عملية لتطوير استراتيجياتك السيبرانية.
  • مراجعات شاملة لأهم الأحداث والتطورات التقنية
Go to Top