تأمين الذكاء الاصطناعي يبدأ من البيانات

إذا أردنا تأمين الذكاء الاصطناعي من البداية للنهاية، فعلينا البدء من حيث المنظومة أكثر هشاشة، من البيانات.

تأمين الذكاء الاصطناعي يبدأ من البيانات

أولى دروس الأمن السيبراني في عصر الذكاء الاصطناعي المؤسسي، وربما أقلها بريقاً، هي أن الإخفاقات الكبرى نادراً ما تبدأ من النموذج نفسه. فغالباً ما تنشأ من المنبع، حيث يجري تجميع البيانات، وإدارتها، ونقلها، ثم كشفها، وأحياناً دون قصد.

هذا المنظور، الذي يضع البيانات في قلب الضغط الأمني الأول، برز بوضوح في مداخلات زياد الشهراني خلال جلسات القمة التنفيذية في Black Hat MEA 2025، ضمن حلقة النقاش المعنونة “The AI Stack, End to End”.

الشهراني، بصفته مدير الأمن السيبراني في وزارة الموارد البشرية والتنمية الاجتماعية (HRSD) في المملكة العربية السعودية، لا يتعامل مع الذكاء الاصطناعي بوصفه طبقة تقنية جديدة تنضم إلى برامج الأمن القائمة، إنما كقوة تكشف مواطن الضعف القديمة، ولا سيما تلك المتعلقة بحوكمة البيانات، والاستخدام غير المصرح به، وجاهزية القوى العاملة.

في هذا الطرح يقدم الشهراني رؤية قيادية ذات وزن تشغيلي؛ مفادها أننا إذا أردنا تأمين الذكاء الاصطناعي من البداية إلى النهاية، فعلينا أن نبدأ من حيث المنظومة أكثر هشاشة ـ أي من البيانات ـ وأن نتعامل مع الذكاء الاصطناعي الظلي (Shadow AI) ومحو الأمية في الذكاء الاصطناعي باعتبارهما أدوات ضبط أساسية، بعد أن كانت في الماضي مجرد قضايا إدارية أو سياسات ثانوية.

البيانات عنق الزجاجة الأول في منظومة الذكاء الاصطناعي

يعيد الذكاء الاصطناعي التوليدي تفعيل حقيقة لطالما أدركتها فرق الأمن، لكنها كثيراً ما تكون عرضة للتأجيل أو التهميش، وهي أن أوسع سطح للمخاطر يكمن في البيانات التي تحرك القدرة الحاسوبية التي تشتريها المؤسسات.

طرح الشهراني لما سماه “نقطة الضغط القائمة على البيانات” غير مرهون بالامتثال لمتطلبات الخصوصية أو تجنب الإحراج المؤسسي، ويتطرق إلى مسبب أعمق؛ إذ إن سوء إدارة البيانات بما يتضمنه من مخاطر التسريب، كفيل بأن يضعف جودة وموثوقية قدرات الذكاء الاصطناعي نفسها. فالخلل ذاته الذي يفتح باب الانكشاف هو ما يقود إلى نتائج رديئة، كالهلوسات التي يصعب اكتشافها، والانحيازات التي تقوض الثقة، والأنظمة الهشة التي تتصرف على نحو غير متوقع عند التوسع.

“سوء إدارة البيانات سيؤدي حتماً إلى تطبيق ضعيف لنموذج الذكاء الاصطناعي.”

زياد الشهراني، ضمن جلسة The AI Stack, End to End، في Black Hat MEA 2025.

هنا يكمن التحول غير المريح. ففي كثير من تطبيقات الذكاء الاصطناعي، انتقلت حوكمة البيانات من ضوابط تبطئ العمل، إلى كونها شرطاً أساسياً للأداء ذاته. وبهذا تتغير لغة النقاش داخل المؤسسات؛ فنظافة البيانات صارت اعتماداً مزدوجاً للأمن والدقة معاً، ولم تعد شأناً خلفياً ثانوياً.

إن من يشك في مدى امتداد “مشكلات البيانات” يكفيه أن يطالع اتجاهات البحث الحديثة. فقد انتقلت هجمات تسميم البيانات ـ سواء كانت خبيثة أو انتهازية ـ من نطاق التنظير إلى التجارب العملية واسعة النطاق.

في أكتوبر 2025، نشرت Anthropic بالتعاون مع UK AI Security Institute وAlan Turing Institute نتائج أظهرت أن إدخال ما لا يزيد على 250 وثيقة خبيثة كفيل بزرع “باب خلفي” داخل نموذج لغوي ضخم، بغض النظر عن حجم النموذج أو كمية بيانات التدريب. وهو ما ينسف الافتراض السائد بأن المهاجم يحتاج إلى السيطرة على جزء كبير من بيانات التدريب.

حتى المؤسسات التي لا تقوم بتدريب نماذج متقدمة بنفسها غير بعيدة عن هذا الدرس. فكلما ازداد اعتماد الذكاء الاصطناعي المؤسسي على مصادر خارجية، أو على التضمينات المدارة من قبل المورد، أو على سياقات مستمدة من الإنترنت، أو على إدخال واسع النطاق لبيانات شبه مهيكلة، ازدادت وراثته لمنطق سلاسل الإمداد، وهو ومنطق في جوهره قصة بيانات.

الخلاصة هنا ليست الدعوة إلى الذعر من التسميم، ولكن إلى الحوكمة. ينبغي النظر إلى الذكاء الاصطناعي المؤسسي أولاً كنظام معتمد على البيانات، قبل اعتباره نظاماً قائماً على النماذج.

“الذكاء الاصطناعي الظلي” إشارة على الطلب

ما زالت كثير من المؤسسات تتعامل مع الذكاء الاصطناعي الظلي، وهو فعلياً الذكاء الاصطناعي غير الخاضع لإدارة المؤسسة، بالذهنية ذاتها التي تعاملت بها سابقاً معه؛ “الموظفون يقومون بتصرفات غير آمنة، والحل هو السياسات والمنع”.

“الذكاء الاصطناعي الظِلي (Shadow AI) مشكلة عالمية. وهي مشكلة الجميع.”

زياد الشهراني، ضمن جلسة The AI Stack, End to End، في Black Hat MEA 2025.

هذا الانعكاس مفهوم، لكنه غير كافٍ. ما يميز مقاربة الشهراني هو تفكيكه للمشكلة إلى مهمتين مختلفتين جذرياً:

  1. الاكتشاف (الرؤية): معرفة أين وكيف يجري استخدام الأدوات غير المعتمدة.
  2. الاستبدال (التمكين): فهم الحاجة الحقيقية خلف هذا الاستخدام، وتوفير بديل أكثر أماناً.

هذا التمييز بالغ الأهمية، لأن الرؤية وحدها لا تحل مشكلة الذكاء الاصطناعي الظلي. وقد يكون الإفراط في المنع سبيلاً إلى نتيجة عكسية، وتراجع الرؤية مع لجوء المستخدمين إلى التحايل.

أبحاث UpGuard لعام 2025 تقترب بقلق من هذا الواقع. ففي استطلاع شمل 500 من قادة الأمن و1000 موظف حول العالم، أفادت UpGuard بأن استخدام أدوات ذكاء اصطناعي غير معتمدة بات ظاهرة ممنهجة، إذ إن 81% من الموظفين و88% من قادة الأمن أقروا باستخدامهم أدوات غير مصرح بها. والأكثر دلالة أن 45% من العاملين يلجؤون إلى حلول التفاف للوصول إلى تطبيقات محجوبة، ما يعني أن “الحجب” كثيراً ما يتحول إلى “فقدان الرؤية”.

“الاكتشاف هو الجزء الأسهل؛ التحدي الحقيقي يكمن فيما يحدث بعد مرحلة الاكتشاف.”

زياد الشهراني، ضمن جلسة The AI Stack, End to End، في Black Hat MEA 2025.

وتضيف دراسة Ivanti – Technology at Work 2025 بعداً آخر للمشهد؛ إذ تشير إلى أن 42% من الموظفين يستخدمون أدوات الذكاء الاصطناعي التوليدي في العمل (ارتفاعاً من 26% في 2024)، فيما يعترف 32% من هؤلاء بأنهم يخفون هذا الاستخدام عن جهات عملهم.

هذه المعطيات مجتمعة تقود إلى حقيقة راسخة في الحوكمة. لا يمكن إدارة ما لا يعترف به المستخدمون. فالذكاء الاصطناعي الظلي هو جزئياً فشل أمني، لكنه أيضاً فشل في التصميم التنظيمي، وفشل في المنتج، وفشل في منظومة الحوافز.

ومن هنا يبرز السؤال البناء؛ ما المشكلة التي يحاول الذكاء الاصطناعي الظلي حلها لموظفيك؟

إجابة الشهراني كانت واضحة، البدء من هناك. فالمستخدمون لا يلجؤون إلى الأدوات غير المعتمدة بدافع أيديولوجي، ولكن فقط لأنها فعالة، فهي تحسن الكتابة، والتحليل، والتلخيص، وتسرع الإنجاز. وقد تكون الاستجابة الأمنية التي تعامل هذا السلوك على أنه انحراف محكوماً عليها بالفشل، بينما الاستجابة التي تتعامل معه كطلب حقيقي يمكن أن تنجح.

الحل في البديل الحقيقي، والعقوبة لا تنفع

ثمة وهم جذاب في عالم الحوكمة قد يقود للاعتقاد بأن وضع السياسة، وإضافة الضوابط حل لتحييد السلوك. لكن الذكاء الاصطناعي الظلي يثبت أن السلوك، في كثير من الأحيان، لا يختفي، ولكنه يصبح أقل وضوحاً.

النمط القابل للحياة هو الاكتشاف ثم الاستبدال؛ أي استخدام أدوات الرصد الأمنية القائمة لكشف الاستخدام، ثم تقديم بديل يلبي الدافع الإنتاجي الكامن خلفه. وتشير بيانات UpGuard نفسها إلى أن الاستبدال لا بد أن يكون مقنعاً، إذ تلاحظ أن السلوك عالي المخاطر يستمر حتى مع التدريب، ما يعني أن الوعي وحده لا يتغلب على الحوافز.

“ينبغي الاستثمار في الأدوات المتاحة بالفعل والإفادة منها على النحو الأمثل، مثل حلول منع تسرب البيانات (DLP)، وحلول وسيط أمان الوصول إلى السحابة (CASB)، وحتى ضوابط الجدران النارية التقليدية.”

زياد الشهراني، ضمن جلسة The AI Stack, End to End، في Black Hat MEA 2025.

فما ملامح البديل الموثوق؟

قدم الشهراني مثالاً بسيطاً. بدلاً من السماح باستخدام غير مضبوط لروبوتات محادثة عامة، يمكن توفير مساعد معتمد (وأشار إلى Microsoft Copilot كمثال توضيحي.) لكن النقطة الجوهرية لا تكمن في المقارنة بين Copilot وChatGPT. إن البنية المعمارية، أو المسار المعتمد يجب أن يكون أسهل، وأكثر أماناً، و”جيداً بما يكفي” ليصبح الخيار الافتراضي.

من منظور مؤسسي عملي، فإن “الذكاء الاصطناعي المعتمد” يحتاج غالباً إلى “باب أمامي” واضح يشمل:

  • واجهة مضبوطة (ويب، أو إضافة متصفح، أو بيئة تطوير متكاملة) يرغب المستخدم فعلاً في استخدامها
  • قواعد شفافة للتعامل مع البيانات (ما الذي يمكن نسخه، أو رفعه، أو تلخيصه)
  • قابلية التدقيق والمراجعة (سجلات، وسياسات احتفاظ، وآليات مراجعة الحوادث)
  • حواجز حماية للبيانات الحساسة (تصنيفات واعية للسياق، وأنماط منع تسريب البيانات (DLP)، سير عمل لإخفاء البيانات)

“لا ينبغي أن يكون الهدف هو العقاب، بل فهم الدافع وراء استخدام الموظف لهذه الأدوات. وغالباً ما يكون ذلك بدافع تعزيز الإبداع أو رفع الإنتاجية.”

زياد الشهراني، ضمن جلسة The AI Stack, End to End، في Black Hat MEA 2025.

قد يبدو الأمر أشبه “بمسرح أمني للذكاء الاصطناعي”، لكنه يجسد الانضباط ذاته الذي جعل اعتماد البرمجيات كخدمة (SaaS) قابلاً للإدارة، من خلال قدر معقول من الاحتكاك، وأدوات قياس، ووضوح في القواعد.

ولعل من الضروري قولها صراحة؛ المؤسسات التي تكتفي بالمنع دون الاستبدال تتخذ ـ ضمناً ـ قراراً باستمرار الذكاء الاصطناعي الظلي، ولكن في الخفاء.

استقلالية الوكلاء تنقل الضغط من البيانات إلى النماذج

يقدم الشهراني رؤية استشرافية نوعاً ما. فبحسب طرحه، يتمحور الضغط الأمني اليوم حول طبقة البيانات، لكن هذا الضغط سيتحول تدريجياً، ومع تنامي قدرات الوكلاء (Agents)، نحو النموذج ذاته وطريقة تطويره.

ملامح هذا التحول باتت واضحة في مشهد التهديدات. فإذا كان الذكاء الاصطناعي مجرد مساعد يختصر السجلات أو يلخص البيانات، فإن الخوف الأساسي يظل محصوراً في تسريب المعلومات. أما إذا كان الذكاء الاصطناعي وكيلاً قادراً على فتح تذاكر الدعم، أو إعادة تهيئة الصلاحيات، أو تشغيل سير العمل، أو تنفيذ أدلة تشغيلية، فإن طبيعة الخطر تتغير جذرياً، فيصبح الذكاء اصطناعي المكشوف للتلاعب لا يقل عن المشغل المكشوف للعبث.

“في المستقبل، خلال السنوات الخمس القادمة، قد نشهد مشاركة عدد أكبر من وكلاء الذكاء الاصطناعي في اتخاذ وتنفيذ القرارات، ما سيحول الضغط إلى النموذج ذاته وطريقة تطويره وبنائه.”

زياد الشهراني، ضمن جلسة The AI Stack, End to End، في Black Hat MEA 2025.

من هنا برزت هجمات حقن التعليمات (Prompt Injection) كعنصر محوري في نقاشات أمن الذكاء الاصطناعي. فهي تجاوز كونها مجرد حيلة لاختراق القيود، وأصبحت وسيلة لتغيير السلوك في أنظمة باتت تقف بين الإنسان والفعل التنفيذي.

قاعدة الأدلة واسعة وعملية. فقد أظهرت ورقة بحثية بعنوان “HouYi”، تناولت اختبار 36 تطبيقاً حقيقياً مدمجاً مع نماذج لغوية ضخمة، أن 31 منها كانت عرضة لهجمات حقن التعليمات، مع تأكيد الموردين لصحة هذه الاكتشافات.

علاوة على ذلك، لم يأت إدراج هذا الخطر في صدارة الاهتمام من فراغ؛ إذ قامت OWASP Foundation بتصنيفه رسمياً كأعلى مخاطر تطبيقات النماذج اللغوية (LLM01) ضمن قائمة OWASP Top 10 for LLM Applications (2025).

في هذا السياق، يخرج “خطر البيانات” من نطاق المؤسسة، ليمتد إلى ما يدخل إلى سياق النموذج وكيف يوجه قراراته. وهنا تتحول طبقة البيانات من قناة نقل إلى طبقة تحكم.

وبذلك تزداد أهمية منطق “البيانات أولاً” لا العكس. فكلما ارتفعت درجة الاستقلالية، تضاعفت آثار فشل طبقة البيانات، والخطر أكثر من التسريب، فلدينا هنا عمليات مضللة، وتوجيه خاطئ، وإفساد مباشر لعملية اتخاذ القرار.

القوى العاملة ترتقي ولا تتقلص ، والتدريب قد ينقلب عبئاً دون وعي حقيقي

من أبرز ما يميز مقاربة الشهراني للقوى العاملة هو ما يتجنبه. وهو السردية السطحية التي تفترض أن الذكاء الاصطناعي سيحل محل المحللين. على النقيض، ينظر إليه كطبقة تسريع يمكنها رفع الدقة والكفاءة، شريطة أن يمتلك العاملون ما سماه “الحد الأدنى من الإلمام” بالذكاء الاصطناعي وفهم آليات عمله.

قد يرى البعض في هذه الفكرة، المتمثلة في “الحد الأدنى من الإلمام”، أنها مبادرة ثقافية، لكنها فعلياً أداة ضبط أمني بحد ذاتها.

فالذكاء الاصطناعي الظلي مشكلة أدوات يرافقها سلوك بشري تحت ضغط السرعة. وإذا لم يدرك المستخدمون طبيعة النماذج اللغوية ـ كالمخرجات الاحتمالية، والحساسية للصياغة، وتسرب السياق، وهشاشة الارتكاز ـ فسيتعاملون معها كما لو كانت أنظمة حتمية. وهذا الخلل في التوقعات يولد المخاطر.

“علينا التركيز على تطوير مهارات أعضاء الفريق وتمكينهم، حتى يتمكنوا من توظيف أدوات الذكاء الاصطناعي بفعالية في العمليات اليومية.”

زياد الشهراني، ضمن جلسة The AI Stack, End to End، في Black Hat MEA 2025.

غير أن التدريب ليس درعاً سحرياً. فنتائج UpGuard تكشف مفارقة لافتة؛ فحتى مع تذكر نسبة معتبرة من الموظفين لتلقيهم تدريباً على الذكاء الاصطناعي، ظل الاستخدام غير المصرح به مرتفعاً، وتشير النتائج إلى أن التدريب قد يغذي الثقة الزائدة بدلاً من الحذر.

هذه المفارقة تضيء ما يجب أن يتضمنه “الحد الأدنى من الإلمام” كي يكون فعالاً:

  • ما الذي يستطيع الذكاء الاصطناعي فعله بموثوقية، وما الذي يعجز عنه
  • ما نوع البيانات التي لا يجوز إدخالها مطلقاً إلى أنظمة خارجية
  • كيف يمكن للسياق أن يستمر أو يتسرب أو يُستعاد بطرق غير متوقعة
  • كيف تعمل هجمات Prompt Injection والتعليمات غير المباشرة، خصوصاً عبر المستندات والبريد الإلكتروني ومحتوى الويب
  • متى يجب النظر إلى المخرجات على أنها مسودة، ومتى يجب حظر التعامل معها كقرار

الهدف هنا أبسط من تحويل كل محلل إلى مهندس تعلم آلي. ويكفي ترسيخ الاستخدام الكفؤ، على غرار الوعي بأساسيات التصيد الاحتيالي، ولكن بنسخة تناسب عصر النماذج اللغوية.

إشارات سوق العمل تعزز هذا الاتجاه. فمؤسسات كبرى باتت تصف محو الأمية في الذكاء الاصطناعي ورفع المهارات الرقمية كركيزة أساسية لسد فجوات المهارات المتسعة. وتشير بيانات ناقشها World Economic Forum  استناداً إلى تحليلات LinkedIn إلى نمو سريع في مؤشرات تطوير مهارات الإلمام بالذكاء الاصطناعي، مع قفزات ملحوظة في فترات زمنية قصيرة.

والخلاصة التنظيمية واضحة. فإن لم توفر المؤسسة معرفة منهجية، فسوف تنتشر “الحكايات المتداولة.” وهناك، تصبح العادات الخطرة هي القاعدة.

الاستخدام بحذر استراتيجية حوكمة قائمة على القياس

يمكن تلخيص الفكرة الختامية لـالشهراني بأن الذكاء الاصطناعي حاضر لا محالة، ولا بد من استخدامه، لكن استخدامه يجب أن يكون محسوباً، والطريقة الوحيدة لفهم المخاطر هي تشغيل القدرات فعلياً.

“الذكاء الاصطناعي حقيقة واقعة، ولا بد من استخدامه، ولكن بحذر. فالطريقة المثلى للتقدم هي الاستخدام الواعي له؛ وإلا فلن نتمكن أبداً من فهم المخاطر التي قد نواجهها.”

زياد الشهراني، ضمن جلسة The AI Stack, End to End، في Black Hat MEA 2025.

قد يبدو هذا الشعار عاماً، إلى أن نقارنه بأنماط الفشل الشائعة:

  • الشلل: تأجيل تبني الذكاء الاصطناعي حتى “ينضج”، فيما يتمدد الذكاء الاصطناعي الظلي في الخفاء
  • الاندفاع: اعتماد سريع دون رؤية، أو مسارات بديلة، أو جاهزية بشرية
  • حوكمة قائمة على السياسات فقط: ضوابط تقلل الاعتراف وتزيد التحايل

القراءة التشغيلية لعبارة “استخدمه بحذر” هي تبن مقرون بالقياس والرقابة:

  • البدء بحالات استخدام محدودة ومنخفضة المخاطر
  • تمرير الاستخدام عبر واجهة معتمدة
  • تسجيل الأنماط ومراقبتها (ما الذي يفعله المستخدمون، وأين يتعثرون، وما الذي يحاولون تجاوزه)
  • تعديل الحواجز بما يتلاءم مع سير العمل الحقيقي
  • التوسع التدريجي مع تحسن ممارسات البيانات، والرؤية، ومستوى الإلمام

هنا، الأمر لا يتعلق بإرضاء فرق الابتكار. لكنه أشبه ببناء حلقات تغذية راجعة تمكن الأمن من إدارة الواقع، وعدم الاكتفاء بالافتراضات عنه.

خلاصة عملية: أربع طبقات ضبط لتأمين الذكاء الاصطناعي

مجتمعة، توحي ملاحظات الشهراني بنموذج عملي لقيادة أمن الذكاء الاصطناعي، نموذج لا يخلط بين الحوكمة والتعطيل، ولا بين الأمن والمنع الأعمى:

  1. طبقة البيانات (تأمين الاعتماد الأساسي): دارة البيانات هي أول نقطة ضغط أمنية. وهنا، يجب الحرص على الجودة، والتتبع، والصلاحيات، ومنع التسريب.
  2. طبقة الرؤية (كشف الذكاء الاصطناعي الظلي): استخدام أدوات المؤسسة القائمة لاكتشاف الاستخدام غير المعتمد باستمرار.
  3. طبقة التمكين (استبدال الحاجة): عدم الاكتفاء بالحظر، وتوفير منظومة معتمدة تلبي دوافع الإنتاجية وتبقي السلوك قابلاً للرصد.
  4. طبقة الأفراد (الحد الأدنى من الإلمام): رفع المهارات لاستخدام كفؤ للذكاء الاصطناعي.

كلمة أخيرة

كثيراً ما يُوصف عصر الذكاء الاصطناعي كثيراً بأنه ثورة في النماذج. أما بالنسبة لقادة الأمن، فهو بالقدر ذاته ثورة في الحوكمة؛ وثورة تكشف قدرة المؤسسة على إدارة بياناتها، وتقديم إنتاجية آمنة، وتدريب أفرادها بوتيرة أسرع من انتشار الحلول غير الرسمية.

الاستراتيجية الذكية تكون في البدء من حيث تنكسر المنظومة أولاً. ونادراً ما يكون ذلك في النموذج نفسه. وغالباً ما يكون في علاقة المؤسسة ببياناتها، وفي استعدادها لاستبدال السلوك غير الآمن بقدرات أكثر أماناً، بدلاً من الادعاء بأن المنع وحده هو الحوكمة.

الموثوقة والمعتمدة لدى خبراء الأمن السيبراني

تقرأ في نشرتنا التي تصلك كل أسبوع:

  • أحدث أخبار ومستجدات الأمن السيبراني محليًا وعالميًا.
  • تحليلات وتقارير دقيقة يقدمها خبراء المجال.
  • نصائح عملية لتطوير استراتيجياتك السيبرانية.
  • مراجعات شاملة لأهم الأحداث والتطورات التقنية
Go to Top