هجمات اختطاف وكلاء الذكاء الاصطناعي تكشف ثغرات واسعة في أنظمة الشركات الكبرى

باحثون من Zenity Labs يعرضون في مؤتمر Black Hat USA أساليب لاختراق وكلاء الذكاء الاصطناعي وسرقة البيانات

هجمات اختطاف وكلاء الذكاء الاصطناعي تكشف ثغرات واسعة في أنظمة الشركات الكبرى
تعرض واجهة تفاعلية لوكيل ذكاء اصطناعي على شاشة تعمل باللمس، في إشارة إلى مخاطر الاختراق

كشفت أبحاث جديدة أجرتها Zenity Labs عن أن وكلاء ومساعدي الذكاء الاصطناعي الأكثر انتشاراً من شركات كبرى مثل Microsoft وGoogle وOpenAI عرضة للاختطاف بسهولة، أحياناً دون أي تفاعل من المستخدم. وقد أوضح الباحثون، خلال عرضهم في مؤتمر Black Hat USA، كيف يمكن للمهاجمين استغلال هذه الثغرات لسرقة بيانات، والتلاعب بسير العمل في مؤسسات مستهدفة، بل وانتحال هوية المستخدمين.

أشار الباحثون إلى أن الخطر لا يتوقف عند الدخول إلى الوكلاء، بل يمكن للمهاجمين الحصول على قدرة البقاء داخل الذاكرة، مما يتيح لهم التحكم لفترات طويلة. وأوضح غريغ زملين، مدير التسويق في Zenity Labs، أن المهاجمين قادرون على تعديل التعليمات، وتسميم مصادر المعرفة، وتغيير سلوك الوكلاء بالكامل، مما يمهد الطريق للتخريب وتعطيل العمليات ونشر معلومات مضللة لفترات ممتدة، خصوصاً في بيئات تعتمد على هؤلاء الوكلاء لاتخاذ قرارات حساسة.

أمثلة عملية عرضها الباحثون شملت استغلال ChatGPT عبر حقن أوامر في البريد الإلكتروني للوصول إلى حسابات Google Drive المتصلة، وتسريب وكلاء Microsoft Copilot Studio لبيانات كاملة من أنظمة إدارة علاقات العملاء، ورصد أكثر من ثلاثة آلاف وكيل معرضين لخطر كشف أدوات داخلية. كما نجحوا في إعادة توجيه مراسلات عملاء عبر منصة Salesforce Einstein إلى عناوين بريد يسيطرون عليها، وتحويل وكلاء Google Gemini وMicrosoft 365 Copilot إلى تهديدات داخلية تستهدف المستخدمين بهجمات هندسة اجتماعية وسرقة محادثات حساسة.

وأكدت Zenity أنها أبلغت الشركات بهذه الثغرات، وأفادت بعض الشركات بإصدار إصلاحات فورية، بينما لم يتضح على الفور ما إذا كانت شركات أخرى قد أصدرت إرشادات أو حلولا. وأوضحت Microsoft أن السلوكيات التي أُبلغ عنها لم تعد فعالة بعد تحسينات نظامية مستمرة، وأكدت OpenAI أنها أصدرت إصلاحا لـ ChatGPT وتدير برنامج مكافآت للإبلاغ عن مثل هذه الثغرات، فيما أعلنت Salesforce عن معالجة المشكلة، وأشارت Google إلى تطبيق دفاعات جديدة متعددة المستويات للتصدي لهجمات حقن الأوامر.

ويأتي هذا البحث في وقت تتسارع فيه وتيرة اعتماد وكلاء الذكاء الاصطناعي في المؤسسات، وتشجع الشركات موظفيها على استخدامها لتعزيز الإنتاجية. لكن خبراء من Aim Labs حذروا من أن النتائج تكشف نقصا مقلقا في آليات الحماية في بيئة الذكاء الاصطناعي سريعة النمو، وأكدوا أن معظم أطر تطوير الوكلاء تفتقر إلى الحواجز الأمنية الكافية، مما يضع عبء إدارة المخاطر العالية على عاتق الشركات.

الموثوقة والمعتمدة لدى خبراء الأمن السيبراني

تقرأ في نشرتنا التي تصلك كل أسبوع:

  • أحدث أخبار ومستجدات الأمن السيبراني محليًا وعالميًا.
  • تحليلات وتقارير دقيقة يقدمها خبراء المجال.
  • نصائح عملية لتطوير استراتيجياتك السيبرانية.
  • مراجعات شاملة لأهم الأحداث والتطورات التقنية
Go to Top