أظهرت دراسة حديثة أجراها باحثون من جامعة Stanford أن الأنظمة الأمنية المعتمدة على الذكاء الاصطناعي باتت قادرة على مجاراة والتفوق على القراصنة المحترفين من البشر. اختبر الباحثون نظاماً يحمل اسم ARTEMIS، مختار بعناية لقياس مدى فعالية الذكاء الاصطناعي في أداء مهام معقدة، في مواجهة 10 متخصصين متمرسين في مجال الأمن السيبراني.
وبحسب النتائج، جاء ARTEMIS في المركز الثاني بين جميع المشاركين، وتمكن من رصد ثغرات أمنية غفل عنها بعض المختبرين البشريين، في وقت كان فيه قادراً على معالجة عدة تحديات في آن واحد.
قضى ARTEMIS نحو 16 ساعة في فحص الشبكات الخاصة والعامة التابعة لكلية علوم الحاسب في Stanford، واستطاع فحص آلاف الأجهزة بحثاً عن ثغرات، وحقق نتائج أفضل من غالبية المختصين، وبتكلفة مالية أقل بكثير.
ففي حين يبلغ متوسط أجر مختبِر الاختراق البشري نحو 125 ألف دولار سنوياً، لا تتجاوز تكلفة تشغيل ARTEMIS قرابة 18 دولاراً في الساعة. وحتى النسخة المحسنة من النظام، والتي تبلغ كلفتها 59 دولاراً في الساعة، لا تزال أقل كلفة من توظيف خبير من النخبة.
جاءت الدراسة، التي قادها كل من Justin Lin وEliot Jones وDonovan Jasper، بعد ملاحظة الباحثين أن أنظمة الذكاء الاصطناعي المتوفرة حالياً تعاني في تنفيذ المهام الطويلة والمعقدة. وقد زودوا ARTEMIS بإمكانية الوصول إلى شبكة Stanford التي تضم قرابة 8000 جهاز، بين خوادم وأجهزة حاسب وآلات ذكية.
عمل المختبِرون البشريون لمدة لا تقل عن 10 ساعات، في حين استمر تشغيل ARTEMIS لمدة 16 ساعة على مدى يومين، لكن التقييم اقتصر على أول 10 ساعات فقط من عمل النظام لمقارنة عادلة. وخلال تلك الفترة، نجح ARTEMIS في اكتشاف 9 ثغرات فعلية، وحقق معدل دقة بلغ 82%، متفوقاً بذلك على 9 من أصل 10 من المشاركين.
ورغم أن أنظمة ذكاء اصطناعي أخرى فشلت في مجاراة الأداء البشري، فإن ARTEMIS أثبت قدرة تنافسية تقارب أفضل الخبراء. وتمكن من تجاوز قيود واجهها المختبرون البشريون، من بينها خادم قديم رفضت المتصفحات فتحه، بينما استخدم ARTEMIS أوامر سطر الأوامر للوصول إليه.
لكن وعلى الرغم من هذا الأداء، أشار تقرير نشرته Wall Street Journal إلى أن نحو 18% من تقارير ARTEMIS كانت إنذارات كاذبة، كما فشل النظام في اكتشاف ثغرة واضحة في إحدى الصفحات، وهي ثغرة تمكن المختبرون من رصدها بسهولة.
الجانب المظلم… حين يقع الذكاء الاصطناعي في الأيدي الخاطئة
يثير التطور السريع في تقنيات الذكاء الاصطناعي مخاوف متزايدة. إذ خفضت هذه الأدوات الحواجز التقنية أمام تنفيذ الهجمات الإلكترونية ونشر المعلومات المضللة، ما سهل على المجرمين والجهات المعادية شن هجمات متطورة.
ونظراً لإمكانية توجيه الأنظمة الذكية بلغة بسيطة ومباشرة، لم يعد يتطلب الأمر مهارات تقنية عالية لإحداث أضرار جسيمة.
وفي تقرير نشرته شركة Anthropic في أغسطس الماضي، كشفت أن عملاء تابعين لكوريا الشمالية استخدموا نموذج Claude AI للحصول على وظائف وهمية عن بعد في شركات تقنية أمريكية كبرى، ما منحهم وصولاً إلى أنظمة داخلية حساسة. كما أشار التقرير إلى أن مجموعة مرتبطة بالصين استعانت بالنموذج نفسه لتنفيذ هجمات إلكترونية استهدفت قطاعات الاتصالات والزراعة والحكومات في فيتنام.
ورداً على ذلك، بدأت كبرى شركات الذكاء الاصطناعي باتخاذ تدابير إضافية، حيث طورت Microsoft أدوات قادرة على رصد الأوامر المشبوهة وتحديد مصدرها، بينما تنبه OpenAI المستخدمين عند محاولة الأنظمة الوصول إلى مواقع حساسة، ولا تسمح لها بإجراء أي خطوة إضافية دون إشراف بشري مباشر.
وقد طالب عدد من خبراء الأمن السيبراني بفرض ضوابط مشددة، مثل اشتراط الحصول على موافقة المستخدم قبل تنفيذ أي إجراء عالي الخطورة مثل تصدير البيانات أو الوصول إلى الحسابات المصرفية.







