أكثر من 40% من المؤسسات معرضة لحوادث أمنية بسبب الذكاء الاصطناعي غير المصرح به

استخدام أدوات الذكاء الاصطناعي التوليدي خارج نطاق الإشراف المؤسسي يهدد بفقدان البيانات وارتفاع التكاليف

أكثر من 40% من المؤسسات معرضة لحوادث أمنية بسبب الذكاء الاصطناعي غير المصرح به
تجاهل السياسات الرسمية في استخدام أدوات الذكاء الاصطناعي قد يكلف المؤسسات بياناتها وأمانها وميزانيتها التشغيلية.

توقعت شركة Gartner أن تتعرض أكثر من 40% من المؤسسات حول العالم بحلول عام 2030 لحوادث أمنية ومخاطر تتعلق بالامتثال نتيجة استخدام أدوات ذكاء اصطناعي غير مصرح بها، وهي الظاهرة التي تعرف باسم Shadow AI.

وأشارت الشركة إلى أن مسحاً أجرته في وقت سابق من هذا العام أظهر أن 69% من قادة الأمن السيبراني لديهم أدلة أو على الأقل شكوك بأن موظفيهم يستخدمون أدوات الذكاء الاصطناعي التوليدي المفتوحة في بيئة العمل دون إذن رسمي.

وحذرت Gartner من أن هذه الممارسات ترفع خطر فقدان حقوق الملكية الفكرية وتسريب البيانات ووقوع مخالفات في الامتثال التنظيمي، وهي مخاطر باتت معروفة على نطاق واسع. ففي عام 2023، اضطرت شركة Samsung إلى حظر استخدام أدوات الذكاء الاصطناعي التوليدي داخلياً بعد أن تبين أن بعض الموظفين شاركوا شيفرات برمجية وملاحظات اجتماعات مع منصة ChatGPT.

وقال أرون تشاندراسكاران، نائب الرئيس التحليلي في Gartner: “لمعالجة هذه المخاطر، يجب على مدراء المعلومات وضع سياسات واضحة على مستوى المؤسسة حول استخدام أدوات الذكاء الاصطناعي، وإجراء تدقيقات دورية للكشف عن نشاط Shadow AI، ودمج تقييم المخاطر في عمليات فحص SaaS”.

وتتوافق نتائج Gartner مع تقارير مشابهة نشرت في الفترة الأخيرة. ففي العام الماضي، ذكرت Strategy Insights أن أكثر من ثلث المؤسسات في الولايات المتحدة والمملكة المتحدة وألمانيا ومنطقة الشمال الأوروبي ودول البنلوكس تواجه صعوبات في مراقبة استخدام الذكاء الاصطناعي غير المصرح به. كما كشفت RiverSafe أن خِمس الشركات البريطانية تعرضت لاحتمال تسريب بيانات حساسة عبر أدوات الذكاء الاصطناعي التوليدي.

أما شركة 1Password، فأوضحت الشهر الماضي أن 27% من الموظفين استخدموا أدوات ذكاء اصطناعي دون موافقة مؤسسية.

الديون التقنية وتأثيرها الخفي

حتى الاستخدام المشروع لأدوات الذكاء الاصطناعي التوليدي قد يقود إلى تبعات غير مقصودة، وفقاً لما أكدته Gartner، التي تتوقع أن تواجه نصف المؤسسات بحلول عام 2030 تأخيرات في ترقية أنظمة الذكاء الاصطناعي و/أو ارتفاعاً في تكاليف الصيانة نتيجة تراكم ما يعرف بالديون التقنية.

وتعد هذه الديون من أبرز الأسباب التي قد تعرض المؤسسة لمخاطر أمنية، خاصة عند تأخر التحديثات الضرورية. وقال تشاندراسكاران: “الشركات متحمسة لسرعة إنتاج الذكاء الاصطناعي التوليدي، لكن تكلفة صيانة أو تصحيح أو استبدال المخرجات التي تنتجها مثل الشيفرات والمحتوى والتصاميم، قد تقضي على العائد الاستثماري الموعود”.

ونصح بضرورة وضع معايير واضحة لمراجعة وتوثيق الأصول المنتجة بواسطة الذكاء الاصطناعي، وتتبع مؤشرات الدين التقني ضمن لوحات المراقبة التقنية للمؤسسة، بهدف تجنب اضطرابات مكلفة في المستقبل.

كما حذر من مخاطر الاعتماد الزائد على نظم الذكاء الاصطناعي التوليدي التي قد تفقد المؤسسات ذاكرتها التشغيلية ومهاراتها البشرية تدريجياً. وقال: “على المؤسسات أن تحدد المواضع التي تبقى فيها الخبرة البشرية والحكم الشخصي عناصر لا غنى عنها، وتصمم حلول الذكاء الاصطناعي لتعزيز هذه المهارات وليس استبدالها”.

وأكد في ختام حديثه أن على مدراء المعلومات اعتماد المعايير المفتوحة، وواجهات البرمجة المفتوحة، والهياكل المعمارية القابلة للتعديل، لتجنب الوقوع في فخ الاعتماد على مزود واحد للذكاء الاصطناعي.

الموثوقة والمعتمدة لدى خبراء الأمن السيبراني

تقرأ في نشرتنا التي تصلك كل أسبوع:

  • أحدث أخبار ومستجدات الأمن السيبراني محليًا وعالميًا.
  • تحليلات وتقارير دقيقة يقدمها خبراء المجال.
  • نصائح عملية لتطوير استراتيجياتك السيبرانية.
  • مراجعات شاملة لأهم الأحداث والتطورات التقنية
Go to Top