
أظهرت دراسة جديدة أن أنظمة النماذج اللغوية الكبيرة LLMs بدأت تتحول من مجرد تجارب إلى أدوات تستخدم بشكل يومي في الأمن السيبراني، حيث تساعد المحللين في تصنيف معلومات التهديدات وتوجيه الاستجابة للحوادث والتعامل مع المهام المتكررة. إلا أن دمج الذكاء الاصطناعي في عملية صنع القرار يثير تساؤلات حول إمكانية تحسين هذه الأنظمة الأداء ومتى قد تخلق ثغرات في التقدير البشري.
قارن الباحثون مجموعتين من الطلبة المتخصصين في الأمن السيبراني، عملت الأولى دون دعم الذكاء الاصطناعي، واستعانت الثانية بنموذج لغوي كبير في حل مهام مستوحاة من مفاهيم CompTIA Security+. أوضحت النتائج أن الأنظمة حسّنت الأداء في المهام الروتينية مثل اكتشاف محاولات التصيد أو تقييم قوة كلمات المرور، لكنها أضعفت القرارات في المهام المعقدة مثل التعامل مع التهديدات المتقدمة وهجمات اليوم صفر، حيث اتبع المشاركون اقتراحات خاطئة من النموذج بثقة زائفة.
الحاجة إلى الحوكمة وبناء المرونة لتفادي مخاطر الانحياز إلى التوصيات الآلية في بيئات العمل
شدد بار لانيدو، الباحث الرئيسي في Lasso Security، على أن المنظمات يجب أن تمنع الاعتماد الأعمى على توصيات الذكاء الاصطناعي عبر وضع هيكلية human-in-the-loop، بحيث يتم التعامل مع مخرجات النموذج اللغوي كافتراضات تحتاج إلى تحقق مقابل السجلات أو الأدلة الميدانية قبل اتخاذ أي إجراء. كما دعا إلى اعتماد سياسات حوكمة تشمل مسارات عمل الموافقة على التبعيات والاعتماد على التحقق المسبق.
أظهرت الدراسة أيضاً أن مستوى المرونة الفردية كان عاملاً حاسماً. إذ حافظ أصحاب المرونة العالية على دقة مرتفعة مع أو من دون دعم الذكاء الاصطناعي، بينما أظهر المشاركون الأقل مرونة ضعفاً في الاستفادة من الأداة، ما يفتح الباب أمام فجوة متزايدة في الأداء داخل الفرق.
ولمواجهة هذا التحدي، أوصى الخبراء بتدريب الفرق على أنماط فشل النموذج اللغوي، وتنظيم اختبارات محاكاة باستخدام مخرجات مضللة، وإقران الفرق الأقل خبرة بالأكثر قدرة، مع إنشاء آليات تغذية راجعة مستمرة لبناء ثقافة تحقق ونقد.
خلصت الدراسة إلى أن إدماج النموذج اللغوي في الأمن السيبراني قد يُحسّن بعض العمليات، لكنه ليس حلاً شاملاً للجميع، بل يتطلب تصميماً يراعي قدرات الأفراد واختلافاتهم في التعامل مع الأتمتة.