اختبارات الاختراق تكشف ثغرات أخطر في أنظمة الذكاء الاصطناعي

تظهر اختبارات الاختراق اتساع مخاطر أنظمة الذكاء الاصطناعي مع ضعف معدلات معالجة الثغرات.

اختبارات الاختراق تكشف ثغرات أخطر في أنظمة الذكاء الاصطناعي
ثلث ثغرات النماذج اللغوية الكبيرة تصنف كتهديدات عالية الخطورة.

أظهرت نتائج اختبارات اختراق حديثة أن أنظمة الذكاء الاصطناعي، وتحديداً تطبيقات النماذج اللغوية الكبيرة (LLM)، تسجل نسبة ثغرات عالية الخطورة تفوق بكثير ما يتم رصده في البرمجيات المؤسسية التقليدية؛ وهو مؤشر يعكس اتساع سطح الهجوم وتعقيد مسؤوليات المعالجة الأمنية داخل المؤسسات.

ووفقاً لتقرير State of Pentesting السنوي الصادر عن شركة Cobalt، فإن 32% من نتائج اختبارات الاختراق المرتبطة بالذكاء الاصطناعي والنماذج اللغوية الكبيرة صُنفت كتهديدات عالية الخطورة، مقارنة بنسبة 13% فقط في اختبارات الأمن المؤسسية العامة. كما كشف التقرير أن هذه الثغرات تسجل أدنى معدل معالجة بين جميع أنواع التطبيقات المختبرة، إذ لم يتم إصلاح سوى 38% من الثغرات عالية الخطورة.

وبحسب التقرير، أفادت مؤسسة واحدة من كل خمس مؤسسات شملها الاستطلاع بتعرضها لحادث أمني مرتبط بالنماذج اللغوية الكبيرة خلال العام الماضي، بينما ذكرت 18% من المؤسسات أنها غير متأكدة من وقوع إصابات، وفضّلت 19% منها عدم الإجابة. ويرى الخبراء الأمنيون أن هذه الأرقام تجسد تسارع وتيرة تبني أنظمة الذكاء الاصطناعي قبل نضوج ضوابط الحوكمة والاختبار والحماية اللازمة. 

سطح هجوم جديد

تتركز أبرز المخاطر في هجمات حقن التعليمات، التي صنفها مشروع OWASP في مقدمة تهديدات تطبيقات النماذج اللغوية الكبيرة. وتتضاعف خطورة هذه الهجمات عندما تكون النماذج متصلة بقواعد معرفة داخلية، أو أدوات ذات صلاحيات مرتفعة، أو مستودعات شيفرة، أو بيانات عملاء؛ حيث يمكن لخلل واحد أن يفتح مساراً لاختراق أنظمة متعددة داخل المؤسسة.

ولا تتوقف المخاطر عند حقن التعليمات فحسب، إذ تضيف التطبيقات المعتمدة على الذكاء الاصطناعي أنماطاً جديدة من التعرض الأمني، تشمل الإضافات غير الآمنة، وتسرب البيانات، ومخاطر سلسلة توريد النماذج، إضافة إلى سلوك الوكلاء الآليين غير المنضبط، ومنح الصلاحيات المفرطة، والاعتماد الزائد على تكاملات داخلية موثوقة.

غياب نماذج المعالجة

يشير الخبراء إلى أن انخفاض معدل معالجة الثغرات في أنظمة الذكاء الاصطناعي يمثل تحدياً لا يقل أهمية عن ارتفاع مستوى خطورتها. ففي الثغرات التقليدية، مثل حقن SQL (SQL Injection) أو ثغرات الكيانات الخارجية في XML (XML External Entities)، تمتلك فرق التطوير مسارات معالجة واضحة ومجربة. أما في حالات مثل سلسلة حقن التعليمات أو الحدود غير الآمنة لاستدعاء الأدوات، فلا تزال الممارسات المؤسسية تفتقر إلى النضج الكافي.

وتتفاقم هذه المشكلة نتيجة تداخل المسؤوليات بين فرق الهندسة، والأمن، والشؤون القانونية، والمشتريات، ووحدات الأعمال. هذا التداخل يبطئ اتخاذ قرارات الإصلاح، خاصة عندما تكون أنظمة الذكاء الاصطناعي مدمجة في سير عمل إنتاجي أو مرتبطة ببيانات حساسة وواجهات برمجة تطبيقات خارجية.

توصيات للحد من المخاطر

يدعو الخبراء مسؤولي أمن المعلومات إلى التعامل مع أنظمة الذكاء الاصطناعي بصفتها أنظمة إنتاج كاملة وليست مجرد تجارب تقنية مؤقتة. ويتطلب ذلك تطبيق نمذجة التهديدات قبل النشر، وإجراء اختبارات الاختراق والاختبارات العدائية طوال دورة حياة النظام، مع ضرورة الالتزام بمبدأ منح أقل الصلاحيات للنماذج والوكلاء، وتقسيم الوصول إلى البيانات الحساسة، وضمان المراقبة المستمرة وتفعيل آليات احتواء سريعة عند رصد أي سلوك غير طبيعي.

كما تتضمن الضوابط المقترحة استخدام مخططات صارمة لاستدعاء الأدوات، والتحقق الصريح من المخرجات قبل تنفيذ أي إجراءات لاحقة، مع فرض الموافقة البشرية على العمليات عالية الأثر، وتقليل صلاحيات التكاملات المتاحة للنموذج. وتعمل هذه الإجراءات على تحجيم نطاق الضرر حتى في حال نجاح المهاجم في استغلال حقن التعليمات أو توجيه النموذج نحو سلوك غير مقصود.

الموثوقة والمعتمدة لدى خبراء الأمن السيبراني

تقرأ في نشرتنا التي تصلك كل أسبوع:

  • أحدث أخبار ومستجدات الأمن السيبراني محليًا وعالميًا.
  • تحليلات وتقارير دقيقة يقدمها خبراء المجال.
  • نصائح عملية لتطوير استراتيجياتك السيبرانية.
  • مراجعات شاملة لأهم الأحداث والتطورات التقنية
اذهب إلى الأعلى