أظهر تقرير حديث صادر عن F5 أن تشغيل نماذج الذكاء الاصطناعي داخل بيئات المؤسسات لم يعد نشاطاً تجريبياً محدوداً، بل أصبح عبء عمل إنتاجياً يتطلب ضوابط تشغيلية وأمنية قريبة من تلك المستخدمة في إدارة التطبيقات الحرجة.
ووفقاً لتقرير حالة استراتيجية التطبيقات لعام 2026، تشغل 78% من المؤسسات خدمات الاستدلال بالذكاء الاصطناعي لديها، بينما أفادت 77% منها أن الاستدلال بات النشاط الأبرز ضمن استخداماتها للذكاء الاصطناعي. ويقصد بالاستدلال استخدام نموذج مدرب لإنتاج إجابات أو توقعات أو قرارات اعتماداً على بيانات جديدة.
من تجربة تقنية إلى عبء تشغيلي
تعكس هذه الأرقام تحولاً جوهرياً في موقع الذكاء الاصطناعي داخل البنية التقنية للمؤسسات؛ فبدلاً من حصره في فرق البحث أو مشاريع الاختبار، أصبحت النماذج تندمج في أنظمة الأعمال، وتتعامل مع طلبات تشغيلية، وواجهات برمجة التطبيقات، وبيانات داخلية، ومهام مرتبطة باتخاذ القرار أو أتمتة الإجراءات.
هذا التحول يجعل الاستدلال أقرب إلى طبقة تطبيقات جديدة داخل المؤسسة، لها متطلبات دقيقة تتعلق بزمن الاستجابة، والتوافر، والتكلفة، والامتثال، وحماية البيانات. وكلما توسع الاعتماد على النماذج في العمليات اليومية، زادت الحاجة إلى مراقبة مسارات الطلبات، والتحقق من الهوية، وضبط الصلاحيات، وتسجيل النشاط بطريقة قابلة للمراجعة الأمنية.
تعقيد النماذج المتعددة
يشير التقرير إلى أن المؤسسات تشغل أو تقيّم في المتوسط سبعة نماذج ذكاء اصطناعي، ما يعني أن الاستدلال لم يعد نقطة اتصال واحدة أو خدمة منفردة. وتختار فرق التقنية نماذج مختلفة بناء على متطلبات الكلفة، والامتثال، والقدرة على الصمود، والتوافق مع واجهات البرمجة، ومستوى الدقة أو الأداء المطلوب لكل حالة استخدام.
ويفرض هذا الواقع تحدياً مباشراً في توجيه حركة الاستدلال بين النماذج؛ إذ قد يحتاج كل طلب إلى قرار بشأن النموذج الأنسب لمعالجته، اعتماداً على عوامل مثل زمن الاستجابة، وتوافر الخدمة، وسياسات البيانات، ومتطلبات الامتثال، وكلفة المعالجة. ومع زيادة عدد النماذج والبيئات، يصبح غياب نقطة تحكم موحدة عاملاً يرفع مخاطر التعقيد التشغيلي ويصعب اكتشاف الأعطال أو الانحرافات الأمنية.
الحوكمة الأمنية عند طبقات جديدة
توضح نتائج التقرير أن أمن الذكاء الاصطناعي في بيئات الإنتاج لا يقتصر على حماية الخوادم أو الشبكات التقليدية، بل تمتد المخاطر إلى طبقات المطالبات، والرموز، وواجهات البرمجة، وهويات الآلات والوكلاء البرمجيين، إضافة إلى البيانات التي تنتقل بين الأدوات والنماذج أثناء تنفيذ المهام.
وفي البيئات الهجينة متعددة السحابات، تصبح هذه المسألة أكثر تعقيداً؛ حيث توزع المؤسسات تطبيقاتها بين مراكز بيانات خاصة، ومرافق استضافة، ومنصات سحابية عامة، مع دمج خدمات الاستدلال داخل تطبيقات داخلية وخارجية في آن واحد. ويعني ذلك أن فرق الأمن تحتاج إلى رؤية موحدة لحركة الذكاء الاصطناعي، لا سيما عندما تتفاعل التطبيقات مع وكلاء الذكاء الاصطناعي أو واجهات تتيح الوصول إلى بيانات ووظائف حساسة.
أولوية متزايدة لمستوى التحكم
بحسب التقرير، تتحول إدارة مستوى التحكم إلى عنصر مركزي في تشغيل الذكاء الاصطناعي؛ فالمؤسسات التي تستخدم نماذج أصغر متخصصة، أو تجمع أكثر من نموذج، أو تسلسل الطلبات بين خدمات متعددة، تحتاج إلى أنظمة تحدد مسارات حركة الاستدلال، وأسباب توجهها، وكيفية تأمينها ومراقبتها.
وتزداد أهمية هذه الأنظمة لكونها تجمع بين متطلبات تسليم التطبيقات ومتطلبات الأمن؛ فالاستدلال في مرحلة الإنتاج يتطلب توازناً بين الأداء والكلفة، وبين المرونة والامتثال، وبين سرعة إدخال النماذج إلى العمل ومراقبة استخدامها. ومن دون ضوابط مركزية قابلة للقياس، قد تتحول مبادرات الذكاء الاصطناعي إلى بيئات موزعة يصعب ضبطها أو تقييم مخاطرها.









