كشف إفصاح بحثي صدر يوم الثلاثاء 10 مارس 2026 عن تجدد السجال حول المخاطر الأمنية المرتبطة بتقنيات الذكاء الاصطناعي الوكيل، وذلك عقب إعلان شركة CodeWall استغلال ثغرة تقنية في منصة Lilli الداخلية المملوكة لشركة McKinsey & Company. وتعتمد McKinsey على هذه المنصة في استرجاع وتلخيص المعرفة المؤسسية عبر قدرات الذكاء الاصطناعي التوليدي، حيث تشير بيانات سابقة للشركة إلى أن المنصة تستقبل أكثر من 500 ألف طلب شهرياً، مع اعتماد 72% من الموظفين النشطين عليها في تسيير أعمالهم.
وتكتسب هذه القضية أهمية بالغة لكونها ترسم ملامح نمط هجومي متطور يستهدف المنصات المؤسسية، بعيداً عن مجرد استهداف شركة بعينها، إذ ترتبط طبيعة التهديد بتوسع الاعتماد على الأنظمة الوكيلة التي تملك صلاحيات تنفيذية وتصفحية واسعة.
وتستند المعطيات المتوفرة حالياً إلى تقرير شركة CodeWall، في ظل غياب إفصاح رسمي تفصيلي من جانب McKinsey يؤكد وقوع اختراق مثبت بهذه الحيثيات. وبحسب الرواية البحثية، رصد وكيل هجومي مستقل في 28 فبراير 2026 ثغرة من نوع حقن قواعد البيانات (SQL injection) في نقطة برمجية غير موثقة، ثم توسعت العملية عبر سلسلة استغلال شملت مشكلات في إعدادات الوصول.
وذكرت CodeWall أن الوكيل نفذ عمليات الاستكشاف والاستغلال آلياً دون معرفة داخلية مسبقة أو تدخل بشري، وأشارت إلى إبلاغ الفريق الأمني في McKinsey يوم 1 مارس، لتعالج الثغرة في اليوم التالي. وتكمن الخطورة في قدرة المهاجم على تجاوز القراءة إلى الكتابة، وتعديل توجيهات المنصة وإفساد مخرجاتها.
تحول الثغرات التقليدية إلى مخاطر تشغيلية ومعرفية
تتضاعف خطورة الثغرات البرمجية التقليدية عند ظهورها داخل أنظمة الذكاء الاصطناعي المركزية التي تنتج التوصيات وتدير المعرفة، حيث يتحول الخلل البرمجي المحدود إلى خطر تشغيلي يمس جوهر القرارات المؤسسية.
وفي هذه البيئات، يبرز تهديد مزدوج يجمع بين استخراج البيانات الحساسة والتأثير في منطق النصائح التي يقدمها النظام، ويجعل ذلك أمن التطبيقات وحوكمة النماذج طبقات متداخلة لا يمكن فصلها.
وتأتي هذه الواقعة في سياق تصاعد استخدام القدرات الوكيلة في الهجمات السيبرانية، فقد رصدت Anthropic في نوفمبر 2025 حملة تجسس متقدمة استخدمت أداة Claude Code لاختراق أهداف عالمية، ونجحت في بعضها عبر تحويل النموذج من مساعد رقمي إلى منفذ تشغيلي لخطوات الهجوم المبرمجة.
وتشير تقديرات شركة Gartner الصادرة في 17 فبراير 2025 إلى أن سوء استخدام الذكاء الاصطناعي التوليدي عبر الحدود سيتسبب في أكثر من 40% من خروقات البيانات بحلول عام 2027. وفي المقابل، أظهر تقرير IBM لعام 2025 أن المؤسسات التي تدمج الذكاء الاصطناعي والأتمتة في منظومتها الدفاعية قلصت زمن الاستجابة للاختراقات بنحو 80 يوماً، وخفضت التكاليف بمتوسط 1.9 مليون دولار.
وتؤكد هذه الأرقام أن التقنية ذاتها تعمل كسلاح ذي حدين، فهي ترفع قدرات المهاجمين وتمنح المدافعين أدوات متطورة لتقليص الفجوة الزمنية، ويتوقف الحسم في هذه المواجهة على مدى نضج الانضباط الهندسي والحوكمة المتبعة داخل المؤسسة.
استراتيجيات حماية سطح الهجوم في عصر الوكلاء الرقميين
يتطلب الواقع التقني الجديد من المؤسسات تجاوز مرحلة التساؤل حول تبني الذكاء الاصطناعي والتركيز على آليات ضبط سطح الهجوم المتوسع، حيث تحتاج المنصات المؤسسية إلى فصل صارم بين طبقات البيانات وتقييد دقيق للواجهات البرمجية (APIs). ويستوجب ذلك توفير حماية متقدمة ضد التلاعب بالسياق وحقن الأوامر، مع استمرار مراقبة سلاسل الامتيازات وإجراء اختبارات هجومية متخصصة تجمع بين فحص التطبيق وفحص النموذج والبيانات.
وتعد الحوادث المرتبطة بالذكاء الاصطناعي الوكيل أكثر تعقيداً وأسرع انتشاراً من حوادث البرمجيات التقليدية، وتتسم بغموض أكبر في مراحل الاكتشاف المبكر نتيجة تداخل العمليات الآلية.








