تحالف سيبراني دولي يضع خارطة طريق لدمج الذكاء الاصطناعي في النظم الصناعية

إرشادات عالمية شاملة لضمان أمان الذكاء الاصطناعي في النظم التشغيلية وحماية الخدمات الأساسية من المخاطر النوعية.

تحالف سيبراني دولي يضع خارطة طريق لدمج الذكاء الاصطناعي في النظم الصناعية
إرشادات دولية جديدة تحدد 4 مبادئ لخفض مخاطر الذكاء الاصطناعي في OT مع تشديد على الحوكمة والرقابة البشرية.

شهد الثالث من ديسمبر لعام 2025 تحولاً جذرياً في سياسات الأمن السيبراني العالمي، حيث أطلقت مجموعة من الوكالات الحكومية والأمنية الرائدة في الولايات المتحدة وحلفائها دليلاً إرشادياً موحداً يضع أسس الممارسة العملية لدمج تقنيات الذكاء الاصطناعي داخل بيئات التقنية التشغيلية (OT) وأنظمة التحكم الصناعي. 

جاء هذا التحرك بتعاون وثيق بين وكالة الأمن السيبراني وأمن البنية التحتية الأمريكية (CISA) ومركز الأمن السيبراني الأسترالي (ASD’s ACSC)، وبدعم تقني واستخباراتي من مركز أمن الذكاء الاصطناعي التابع لوكالة الأمن القومي الأمريكية (NSA AISC) ومكتب التحقيقات الفيدرالي (FBI). ولم يقتصر هذا الجهد على الجانب الأمريكي فحسب، بل امتد ليشمل مراكز الأمن السيبراني الوطنية في كندا، وألمانيا (BSI)، وهولندا، ونيوزيلندا، والمملكة المتحدة، في خطوة تعكس الرغبة الدولية في تحصين البنية التحتية الحيوية ضد التهديدات الناشئة التي قد تصاحب تبني التقنيات الذكية.

ضرورة التخصص في البيئات التشغيلية وتحديات نموذج Purdue

تستند هذه الإرشادات إلى رؤية فنية مفادها أن إقحام الذكاء الاصطناعي في الأنظمة التي تدير الخدمات العامة الأساسية يتطلب نهجاً يختلف جذرياً عن التعامل مع الأنظمة المعلوماتية التقليدية. إن المخاطر في بيئات (OT) تتجاوز مجرد تسريب البيانات لتصل إلى تهديد السلامة الجسدية واستمرارية الخدمات الحيوية، حيث حذرت الوثيقة من ظواهر تقنية معقدة مثل “انحراف النموذج” (Model Drift)، والتي تعني تراجع دقة خوارزميات الذكاء الاصطناعي بمرور الوقت نتيجة تغير ظروف التشغيل، ما قد يؤدي إلى اتخاذ قرارات خاطئة تؤثر في مسارات السلامة.

ولضمان شمولية التغطية، استعرضت الوثيقة تطبيقات الذكاء الاصطناعي عبر كافة طبقات نموذج “بيردو” (Purdue Model) الشهير؛ بدءاً من أجهزة الحقل كالحساسات والمشغلات، مروراً بوحدات التحكم المحلية مثل (PLCs) و(RTUs)، وصولاً إلى استخدام التحليلات المتقدمة على مستوى المؤسسة. ويهدف هذا التوظيف إلى تحسين سير العمل وتفعيل التحليلات السلوكية التي تمكن النظام من كشف الشذوذ والتهديدات السيبرانية عبر الدمج الذكي بين بيانات تقنية المعلومات والتقنية التشغيلية.

المبادئ الأربعة وحتمية الرقابة البشرية في المسارات الحرجة

وضعت الوكالات الدولية إطار عمل يتألف من 4 ركائز أساسية يتعين على مشغلي البنى التحتية اتباعها. تبدأ هذه الركائز بتقييم جدوى استخدام الذكاء الاصطناعي قبل اعتماده، وضمان وجود حالة استخدام واضحة تبرر المخاطر المحتملة. تليها مرحلة إرساء الحوكمة والضمانات، التي تفرض وجود آليات إشراف مستمرة واختبارات دورية متوافقة مع الأطر التنظيمية. أما الركيزة الثالثة، فتركز على تضمين ممارسات السلامة في صلب الأنظمة، بينما شددت التوصيات التشغيلية الصادرة عن وكالة الأمن القومي (NSA) على نهج التوجيه البشري للآلة (Human-in-the-Loop) كشرط أساسي عند التأثير المباشر في عمليات التحكم، لضمان وجود نقاط تدخل بشرية تمنع تضخم الأخطاء التقنية.

وفي سياق متصل، قدمت الوكالات توصية فنية بالغة الأهمية تتمثل في عزل مسارات البيانات؛ بحيث يتم دفع بيانات التقنية التشغيلية إلى أنظمة ذكاء اصطناعي منفصلة للتحليل بدلاً من زرع مكونات الذكاء الاصطناعي في عمق مسارات التحكم الحرجة، إلا في الحالات التي تفوق فيها المنافع التشغيلية المخاطر المتوقعة بشكل ملموس.

سيادة البيانات ومسؤولية المشغلين في مواجهة التهديدات المستقبلية

انتقلت الإرشادات إلى محور حساس يتعلق ببيانات التقنية التشغيلية، مشددة على ضرورة الوعي الكامل بمكان تخزين هذه البيانات وهوية الجهات التي تملك حق الوصول إليها، خاصة عند التعامل مع مزودي الحلول السحابية أو الوصول عن بعد. ونبهت الوثيقة إلى مخاطر سيادة البيانات التي قد تنشأ عندما يخضع الموردون لقوانين دول خارجية، وهو ما قد يضعف سيطرة المشغل المحلي على أصوله المعلوماتية. كما حذرت من ظاهرة تسميم البيانات (Data Poisoning)، سواء كان ذلك بشكل متعمد من قبل مهاجمين أو نتيجة أخطاء غير مقصودة.

تضع هذه الإرشادات مشغلي القطاعات الحيوية أمام مسؤوليات جديدة، حيث لم يعد الذكاء الاصطناعي مجرد طبقة تحسين معزولة، بل أصبح جزءاً أصيلاً من خطط الاستجابة للحوادث وسلسلة توريد البرمجيات. ويتطلب هذا الواقع الجديد من المشغلين إدراك أن تراجع أداء النماذج الذكية يمثل تهديداً مباشراً للسلامة والتوافر، يفرض عليهم تطبيق آليات “الإخفاق الآمن” (Fail-safe) للحد من التبعات الكارثية في حال حدوث أي خلل تقني.

الموثوقة والمعتمدة لدى خبراء الأمن السيبراني

تقرأ في نشرتنا التي تصلك كل أسبوع:

  • أحدث أخبار ومستجدات الأمن السيبراني محليًا وعالميًا.
  • تحليلات وتقارير دقيقة يقدمها خبراء المجال.
  • نصائح عملية لتطوير استراتيجياتك السيبرانية.
  • مراجعات شاملة لأهم الأحداث والتطورات التقنية
Go to Top