
تشير دراسة حديثة من Ponemon Institute إلى أن تسريب البيانات من الداخل بات يشكل أحد أخطر التهديدات على المؤسسات. الإهمال وسوء النية معاً يقفان خلف هذه المخاطر، خصوصاً عندما تكون ضوابط الوصول ضعيفة أو لا توجد مراقبة كافية على أنشطة الملفات. المؤسسات التي تعرضت لحوادث مرتبطة بالملفات خلال العامين الماضيين تكبدت خسائر بملايين الدولارات، شملت تسرب بيانات العملاء، تراجع الإنتاجية، وكشف الملكية الفكرية. كما تبرز مخاطر إضافية ناجمة عن الملفات الخبيثة التي تصل من الموردين وضعف الرقابة على مشاركة الملفات، إضافة إلى انعدام الثقة في عمليات الرفع والنقل الإلكتروني للملفات.
أقل من نصف المؤسسات أبدت ثقة في أمان الملفات عند رفعها أو مشاركتها عبر البريد الإلكتروني أو نقلها إلى أطراف ثالثة. المثير أن الثقة في تنزيل الملفات من مصادر مجهولة كانت أعلى من الثقة في عمليات الرفع والمشاركة، وهو ما يعكس صعوبة التحكم في هذه العمليات. أنظمة التخزين التقليدية مثل الخوادم المحلية وNAS وSharePoint جاءت في صدارة نقاط الضعف، إلى جانب البوابات العامة ونماذج الويب وتنزيل الملفات من تطبيقات SaaS.
تطور البرمجيات الخبيثة يفرض أدوات دفاعية جديدة مع دخول الذكاء الاصطناعي في الاستراتيجيات
البرمجيات الخبيثة القائمة على الماكرو إلى جانب الهجمات المبنية على ثغرات اليوم الصفري والبرمجيات غير المعروفة كانت في مقدمة المخاوف لدى المؤسسات، لكونها عصية على الاكتشاف عبر الأدوات التقليدية. لا تزال هجمات الفدية والملفات التي تستغل ثغرات المعالجة النصية والبرمجيات المخفية عبر تقنيات التمويه تمثل تهديدات بارزة. اللافت أن 40 في المائة فقط من المؤسسات قادرة على الاستجابة خلال يوم أو أسبوع، فيما تعجز أخرى عن القياس أو تستغرق وقتاً أطول.
لتقليل هذه المخاطر، اعتمدت المؤسسات مجموعة من التقنيات مثل Content Disarm and Reconstruction، الفحص المتعدد، Sandboxing، تقييم ثغرات الملفات، إضافة إلى Threat Intelligence. كما يزداد الاعتماد على Data Loss Prevention للحد من مشاركة الملفات غير المصرح بها ومنع التسريبات. بعض المؤسسات باتت تستخدم التحقق من بلد المنشأ وقوائم Software Bill of Materials كجزء من إدارة سلسلة التوريد.
الذكاء الاصطناعي بدأ يدخل بشكل لافت في استراتيجيات حماية الملفات، حيث إن ثلث المؤسسات تستخدمه بالفعل، فيما يخطط ثلث آخر لتبنيه خلال عام. أبرز الفوائد المتوقعة تتمثل في تقليل المخاطر والتكاليف، إضافة إلى تعزيز الكفاءة. غير أن الذكاء الاصطناعي التوليدي يظل مثيراً للجدل، إذ لا تتجاوز نسبة المؤسسات التي لديها سياسات واضحة ربع العينة، بينما حظرت نسبة مماثلة استخدامه بشكل كامل. بعض المؤسسات أجرت تجارب محدودة أو اعتمدته في نطاق ضيق، مثل فتح الملفات المعقدة أو تحليل التفاعلات بين الملفات.
الأولويات الجديدة شملت أيضاً حماية الملفات الحساسة ضمن بيئات الذكاء الاصطناعي، عبر أدوات تأمين التوجيهات، إخفاء البيانات الحساسة، فحص البرمجيات الخبيثة، وتطبيق ضوابط الحوكمة الخاصة بالذكاء الاصطناعي. الهدف هو تقليل مخاطر تسريب البيانات أو إساءة استخدام المعلومات الحساسة.
وتبقى التشريعات عاملاً ضاغطاً على المؤسسات، إذ تمثل قوانين مثل SOX وPCI DSS وHIPAA وGDPR أبرز الأطر الملزمة. لكن نصف المؤسسات فقط ترى أنها قادرة فعلياً على الوفاء بمتطلبات الامتثال الخاصة بأمن الملفات.