
رغم أن 79% من المؤسسات تُشغّل الذكاء الاصطناعي بالفعل في البيئات الإنتاجية، فإن 6% فقط منها اعتمدت استراتيجية أمن سيبراني شاملة مخصصة لحماية هذه التقنيات، وفق تقرير SandboxAQ الصادر حديثاً بعنوان AI Security Benchmark Report. وتُظهر هذه الفجوة أن معظم المؤسسات لا تزال مكشوفة أمام تهديدات غير مستعدة لرصدها أو الاستجابة لها.
فجوة الاستعداد الأمني للذكاء الاصطناعي
استند التقرير إلى استطلاع آراء 102 من كبار مسؤولي الأمن السيبراني في الولايات المتحدة وأوروبا، وأبرز المخاوف المتعلقة بمخاطر الذكاء الاصطناعي مثل التلاعب بالنماذج، وتسرب البيانات، والهجمات الخصامية، واستغلال الهويات غير البشرية مثل الحسابات الآلية والخدمات والبرمجيات.
رغم تزايد القلق بين المديرين التنفيذيين للأمن السيبراني، فإن 28 في المئة فقط من المؤسسات قامت بتقييم أمني شامل يركّز على الذكاء الاصطناعي، فيما لا تزال الغالبية تعتمد على أدوات تقليدية قائمة على القواعد لم تُصمم أصلاً لحماية الأنظمة المدفوعة بالذكاء.
نتائج رئيسية تكشف خللاً جوهرياً في الاستعداد الأمني
- 6 في المئة فقط من المؤسسات اعتمدت تقنيات حماية أصلية للذكاء الاصطناعي تغطي الأنظمة الرقمية والذكاء معاً
- 74 في المئة من القادة الأمنيين عبّروا عن قلق بالغ من الهجمات السيبرانية المدعومة بالذكاء الاصطناعي
- 69 في المئة يشعرون بقلق من قدرة الذكاء الاصطناعي على اكتشاف ثغرات جديدة داخل بيئاتهم الرقمية
- 10 في المئة فقط من المؤسسات تملك فريقاً متخصصاً بأمن الذكاء الاصطناعي، بينما تعتمد البقية على فرق الأمن التقليدية
مارك مانزانو، المدير العام لوحدة الأمن السيبراني في SandboxAQ، أشار إلى أن معظم المؤسسات لا تقيس أمن الذكاء الاصطناعي بطريقة مجدية، لأن الأساسيات غير موجودة بعد، حيث أن أقل من 30 في المئة فقط من القادة الأمنيين قاموا بتقييم مخاطر النشر، و6 في المئة فقط نفذوا ضوابط حماية فعلية.
أوضح مانزانو أن الفرق المتقدمة بدأت تتحوّل عن محاولة تكييف الضوابط القديمة نحو تقييم المخاطر الحقيقية التي تعكس سلوك الأنظمة المدفوعة بالذكاء الاصطناعي في بيئات التشغيل، وما يمكن أن تسببه من آثار مدمّرة في حال تعرضت للاختراق أو خرجت عن السيطرة. وشدد على أهمية المراقبة الدقيقة للهويات غير البشرية والأصول التشفيرية المستخدمة في سير العمل المعتمد على الذكاء الاصطناعي.
الهويات غير البشرية تُربك قواعد الحوكمة الأمنية
الهوية غير البشرية تُضيف تحديات جديدة لحوكمة الأمن، إذ إن الكيانات غير البشرية مثل الوكلاء الآليين والخدمات البرمجية غالباً ما تعمل دون رقابة بشرية، وتستخدم بيانات مشفّرة للوصول إلى موارد حساسة والتفاعل مع أنظمة أخرى، ما يضعف مبادئ الثقة المعدومة ويكشف ثغرات واضحة في إدارة الهوية والنظافة التشفيرية.
الميزانيات الأمنية تتجه لحماية الذكاء الاصطناعي
رغم هذه التحديات، فإن الاستثمار في حماية الذكاء الاصطناعي يشهد نمواً متسارعاً، حيث تخطط 85 في المئة من المؤسسات لزيادة ميزانياتها المخصصة لهذا المجال خلال 12 إلى 24 شهراً، ويعتزم ربعها تقريباً زيادة كبرى. وتتصدر الأولويات: حماية بيانات التدريب وخطوط الاستدلال، وتأمين الهويات غير البشرية، وتنفيذ أدوات استجابة تلقائية للحوادث تتناسب مع بيئات الذكاء الاصطناعي.