انتقل وكلاء الذكاء الاصطناعي (AI Agents) إلى مرحلة تشغيلية متقدمة داخل المؤسسات، متجاوزين دور المساعد الرقمي التقليدي للقيام بمهام مستقلة تتفاعل مباشرة مع بيانات العملاء، والبنية التحتية، وتطبيقات الأعمال.
وقد أدى هذا التحول إلى ارتفاع مستوى القلق الأمني لدى الشركات، نتيجة تحرك ضوابط الحوكمة والرقابة بوتيرة أبطأ من سرعة التوسع في الاستخدام. ويوضح تقرير حديث صادر عن شركة SailPoint أن 82% من المؤسسات تعتمد حالياً على هذه التقنيات، فيما تعتزم 98% منها زيادة هذا الاعتماد خلال العام المقبل.
وفي المقابل، تمتلك 44% فقط من هذه المؤسسات سياسات مخصصة لتأمين هؤلاء الوكلاء، بينما يرى 96% من المختصين التقنيين أنهم يشكلون خطراً أمنياً متصاعداً. وقد استندت هذه النتائج إلى استطلاع أجرته جهة البحث المستقلة Dimensional Research، وشمل 353 مسؤولاً أمنياً في مؤسسات كبرى عبر 5 قارات.
وتشير البيانات الواردة في التقرير إلى وجود فجوة عميقة بين التطور التقني والاستعداد الأمني؛ إذ يعتقد 72% من المشاركين أن وكلاء الذكاء الاصطناعي يطرحون مخاطر تتجاوز مخاطر الهويات الآلية التقليدية. وينبع هذا التقدير من قدرة هذه الأنظمة على اتخاذ قرارات وتنفيذ إجراءات شبه مستقلة داخل بيئة العمل دون تدخل بشري مباشر في كل خطوة.
ويرى 92% من المشاركين أن حوكمة هؤلاء الوكلاء تمثل ركيزة حاسمة لأمن المؤسسة، خاصة مع تحديد مخاطر نوعية؛ مثل وصول الوكلاء إلى بيانات ذات امتيازات عالية بنسبة 60%، واحتمال تنفيذ إجراءات غير مقصودة بنسبة 58%.
كما تبرز مخاوف متعلقة بمشاركة بيانات حساسة بنسبة 57%، واتخاذ قرارات بناءً على معلومات غير دقيقة بنسبة 55%، وصولاً إلى الوصول لمعلومات غير ملائمة بنسبة 54%. وتضع هذه الأرقام القضية برمتها ضمن نطاق إدارة الهوية والصلاحيات.
الحوادث التشغيلية وتحول الوكلاء إلى سطح هجوم جديد
تؤكد الوقائع الميدانية أن التهديدات المرتبطة بوكلاء الذكاء الاصطناعي قد تجاوزت التوقعات النظرية لتتحول إلى حوادث فعلية؛ حيث كشفت 80% من المؤسسات عن تنفيذ وكلائها لإجراءات غير مقصودة، شملت الوصول إلى موارد غير مصرح بها بنسبة 39%، وتحميل محتوى حساس بنسبة 32%، ومشاركة بيانات غير مناسبة بنسبة تراوحت بين 31% و33%.
كما تعرض 23% من هؤلاء الوكلاء لعمليات خداع أدت لكشف بيانات الاعتماد. وتتفق هذه المعطيات مع تقارير أشارت إلى انتقال أنظمة الذكاء الاصطناعي المؤسسية إلى بيئات الإنتاج الحية التي تتعامل مع المعاملات المالية وبيانات العملاء، ما نتج عنه فجوة في قدرة فرق الأمن على مراقبة هذه الأنظمة أو ضبطها، وتحول التركيز المؤسسي من البحث عن الكفاءة إلى البحث عن آليات السيطرة والمساءلة.
وفي هذا الصدد، تعتبر شركة SailPoint وكلاء الذكاء الاصطناعي فئة هوية مستقلة تتطلب معايير تختلف عن المستخدم البشري أو الآلات التقليدية، وتشدد على ضرورة وجود ملكية واضحة ومراجعات دورية لصلاحيات هؤلاء الوكلاء. وتبرز التحديات الأمنية بسبب الطبيعة غير الحتمية لأفعالهم، التي قد تختلف نتائجها في كل مرة حتى مع ثبات المدخلات، إضافة إلى عملهم عبر منصات سحابية متعددة واستخدام أدوات خارجية للوصول إلى الأنظمة.
ويعد ملف أمن الوكلاء قضية حوكمة هوية بالدرجة الأولى؛ إذ إن التوسع دون جرد دقيق لهؤلاء الوكلاء أو تحديد مسارات وصولهم يفتح سطح هجوم يصعب تفسيره لاحقاً أمام فرق التدقيق والامتثال. وتزداد هذه المخاطر في القطاعات الحساسة مثل الخدمات المالية، والرعاية الصحية، والتصنيع، حيث ترتبط أعمال الوكلاء بسلاسل توريد وبيانات داخلية معقدة تتطلب رقابة مستمرة ومراجعة دقيقة للمسؤوليات.








