كشفت ورقة بحثية حديثة عن الدور الحاسم الذي تؤديه هيكلية تدفق البيانات في تعزيز أداء نماذج اللغة الكبيرة ضمن بيئات العمل التقنية؛ إذ أثبتت النتائج أن فعالية الذكاء الاصطناعي في كشف التهديدات لا تقتصر على قوة النموذج بحد ذاته، بل تعتمد بشكل أساسي على كيفية تصميم مسار التحقيق الرقمي.
وتوصلت الدراسة إلى أن تحويل عملية التحليل من مجرد استجابة مباشرة إلى نظام تفاعلي متعدد المراحل يرفع كفاءة رصد الهجمات المعقدة، ويسهم في سد الفجوة بين قدرات المعالجة الآلية ومتطلبات الأمان الرقمي في مراكز العمليات الأمنية.
من الاستنتاج المباشر إلى التحقيق المنهجي المنظم
أظهرت التجارب العملية أن تقديم التقارير الأمنية لنماذج الذكاء الاصطناعي مع طلب إصدار أحكام فورية يؤدي غالباً إلى نتائج غير دقيقة، بينما تتبدل هذه الصورة تماماً عند اتباع بروتوكول يعتمد على تقسيم المهام. وفي هذا الإطار، اختبرت الدراسة قدرة النماذج على التعامل مع ثغرات وقضايا أمنية حقيقية، حيث تبين أن حصر النموذج في دور “المحلل” الذي يستعلم عن البيانات عبر أدوات محددة يمنحه قدرة أكبر على التحقق من التفاصيل الجوهرية؛ فبدلاً من الاعتماد على التخمين، يطلب النظام معلومات إضافية واستخدام أدوات تقنية متخصصة للوصول إلى استنتاجات مبنية على أدلة رقمية ملموسة وموثقة.
اعتمدت الدراسة في منهجيتها على دمج تقنيات البحث عن نقاط الضعف (مثل CVEs) مع أدوات برمجية مخصصة، حيث أتيح للنماذج استخدام لغات استعلام محددة للوصول إلى قواعد البيانات الأمنية. وساهم هذا التوجه في تحويل الذكاء الاصطناعي من مجرد قارئ للنصوص إلى محقق نشط يبحث في مسببات الحوادث التقنية، ما أدى بدوره إلى تقليل معدلات الخطأ الناتجة عن نقص السياق.
ويعزز هذا الأسلوب موثوقية الاعتماد على التقنيات الحديثة في مراقبة الأنظمة الحساسة، خاصة عند التعامل مع تدفقات بيانات ضخمة تتطلب سرعة فائقة في اتخاذ القرار.
نتائج الاختبارات الميدانية وكفاءة رصد الاختراقات
سجلت النماذج المتطورة، مثل GPT-4 وClaude، تفوقاً ملحوظاً عند اختبارها ضمن بيئة تحاكي هجمات واقعية شملت استغلال ثغرات في أنظمة Microsoft وCisco وSAP. وبحسب البيانات المرصودة، ارتفعت دقة اكتشاف محاولات اختراق بروتوكول Windows RPC وتجاوز حواجز الحماية في Qualcomm بشكل كبير عند تفعيل خاصية التحقيق المتسلسل.
ولم يقتصر الأمر على تحديد وقوع الحادثة فحسب، بل تمكنت الأنظمة من تقديم شرح تقني دقيق حول كيفية استغلال الثغرة، وفر وقتاً ثميناً لفرق الاستجابة للحوادث في فهم طبيعة التهديد ومعالجته قبل تفاقم الأضرار.
ورغم هذا التقدم، أشارت النتائج إلى وجود تحديات تتعلق بالحالات التي تقع في “المنطقة الرمادية”؛ حيث تميل النماذج أحياناً إلى الحذر الزائد وتصنيف الأنشطة المشبوهة كتهديدات محتملة تتطلب تدخلاً بشرياً. ويعكس هذا السلوك طبيعة تصميم “ضمانات الذكاء الاصطناعي” التي تهدف إلى منع اتخاذ قرارات خاطئة قد تؤثر على استمرارية الأعمال.
ومع ذلك، يظل الاعتماد على هذه المنهجية خطوة محورية نحو أتمتة العمليات الأمنية، بما يضمن موازنة دقيقة بين السرعة التقنية والدقة البشرية في مواجهة الهجمات السيبرانية المتطورة.








