نشرت الوكالة الوطنية للمعايير والتقنية في الولايات المتحدة (NIST) النسخة الأولية من إطار العمل السيبراني للذكاء الاصطناعي، لتكون بمثابة دليل عملي يساعد المؤسسات على تبني الذكاء الاصطناعي بطريقة آمنة ومسؤولة. وتأتي هذه الخطوة في ظل تسارع الاعتماد على نماذج الذكاء الاصطناعي التوليدي والتطبيقي، وما يصاحب ذلك من تحديات سيبرانية جديدة تتطلب أطر حوكمة مرنة ومحدثة.
ينطلق هذا الإطار الجديد من 3 محاور رئيسية:
- تأمين الذكاء الاصطناعي.
- توظيف الذكاء الاصطناعي في الدفاع السيبراني.
- التصدي للهجمات السيبرانية المدعومة بالذكاء الاصطناعي.
وقد أوضحت باربرا كوثيل، نائبة مدير برنامج الأمن السيبراني لإنترنت الأشياء وأحد المشاركين في إعداد الوثيقة، أن كل مؤسسة سيكون عليها معالجة هذه المحاور الثلاثة.
أعد الفريق النسخة الأولية للإطار بناء على ورقة مفاهيمية سابقة نشرتها الوكالة في فبراير 2025، وورش عمل وجلسات مجتمعية استشارية عقدت حتى منتصف العام. وتهدف الوكالة إلى نشر النسخة العامة الأولى من الوثيقة خلال عام 2026، على أن تبقى النسخة الحالية متاحة للتعليقات العامة حتى 30 يناير 2025.
تقول كوثيل: “الهدف من هذا الملف هو تمكين المؤسسات من التقدم بثقة في رحلتها نحو الذكاء الاصطناعي. نأمل أن يعزز قدرتها على النقاش واتخاذ القرارات حول كيفية تأثير الذكاء الاصطناعي على منظومتها السيبرانية، وكيفية تطوير برامج الأمن لديها بشكل متواز مع هذا التحول”.
الإطار الجديد جزء من CSF 2.0 الأوسع نطاقاً لإدارة مخاطر الأمن السيبراني
يتكامل إطار الذكاء الاصطناعي الجديد مع النسخة الثانية من إطار العمل الشامل للأمن السيبراني (CSF 2.0) من NIST، والذي يقدم إرشادات متكاملة لإدارة المخاطر السيبرانية ضمن بيئات تقنية متطورة. وقد نشرت الوكالة مؤخراً أيضاً المسودة الثانية من دليل CSF 2.0 لتسريع تبني أفضل الممارسات في بناء القوى العاملة السيبرانية بناء على تقييم المخاطر الفعلي، وهو دليل مفتوح للتعليقات حتى 7 يناير 2025.
يعكس هذا التوسع في CSF تزايد الحاجة إلى أطر عمل متخصصة لمواجهة التحديات الناتجة عن التحول الرقمي المتسارع، وخاصة تلك المتعلقة بالذكاء الاصطناعي. ومن المتوقع أن يسهم دمج أدوات تقييم المخاطر الخاصة بالذكاء الاصطناعي ضمن إطار CSF 2.0 في تقديم رؤية أوضح لصناع القرار في المؤسسات.







