وكيل ذكاء اصطناعي من جوجل يكتشف الثغرات ويعيد كتابة الشيفرة لإصلاحها

يأتي ذلك مع برنامج مكافآت جديد لاكتشاف الثغرات في أنظمة الذكاء الاصطناعي وتحسين أمان الشيفرات

وكيل ذكاء اصطناعي من جوجل يكتشف الثغرات ويعيد كتابة الشيفرة لإصلاحها
جوجل ديب مايند تطلق CodeMender القادر على كشف الثغرات وإصلاحها تلقائياً ضمن مشاريع ضخمة مفتوحة المصدر

أعلنت جوجل عبر قسم ديب مايند DeepMind عن وكيل ذكاء اصطناعي جديد باسم CodeMender مصمم للكشف التلقائي عن الثغرات في الشيفرات البرمجية، وإصلاحها وإعادة كتابتها لتفادي استغلالها مستقبلاً. وتندرج هذه الخطوة ضمن سلسلة مبادرات جوجل لتعزيز أمان البرمجيات باستخدام الذكاء الاصطناعي، والتي تشمل أدوات مثل Big Sleep وOSS-Fuzz.

وأوضحت ديب مايند أن CodeMender يتميز بقدرته على العمل بشكل استباقي وتفاعلي في آن واحد، إذ يمكنه معالجة الثغرات الجديدة فور اكتشافها، كما يعيد كتابة الشيفرات القديمة لتقوية بنيتها وحذف الفئات المتكررة من الثغرات الأمنية.

وقال الباحثان رالوکا آدا بوبا وفور فلين إن “الوكيل المدعوم بالذكاء الاصطناعي CodeMender يسهل على المطورين التركيز على بناء برمجيات عالية الجودة من خلال توليد تصحيحات أمنية عالية الدقة وتطبيقها تلقائياً”.

وأضافا أن الفريق تمكن خلال الأشهر الستة الماضية من إدراج 72 إصلاحاً أمنياً في مشاريع مفتوحة المصدر، بعضها يتضمن أكثر من 4.5 مليون سطر من الشيفرة.

يعتمد CodeMender في جوهره على نماذج Gemini Deep Think من جوجل التي تحدد الثغرات الأمنية وتصلحها من خلال معالجة السبب الجذري للمشكلة، مع اختبار التغييرات للتأكد من عدم تسببها في أخطاء جديدة. كما يستخدم أداة مراجعة قائمة على نموذج لغوي كبير LLM توضح الفروق بين الشيفرة الأصلية والمعدلة للتحقق من جودة التصحيح والتراجع الذاتي عند الحاجة.

وأشارت جوجل إلى أنها تخطط للتواصل تدريجياً مع مشرفي المشاريع المفتوحة المصدر الحرجة لتزويدهم بتصحيحات CodeMender وجمع ملاحظاتهم، بهدف جعل الأداة قادرة على حماية الشيفرات على نطاق واسع.

واجهة CodeMender تعرض مراجعة تلقائية لتصحيحات أمنية في الشيفرة ضمن مشاريع مفتوحة المصدر.

ويأتي هذا التطور بالتزامن مع إطلاق جوجل برنامج مكافآت جديد يسمى AI Vulnerability Reward Program (AI VRP) للإبلاغ عن الثغرات الأمنية في أنظمة الذكاء الاصطناعي الخاصة بها، بما في ذلك هجمات حقن الأوامر Prompt Injections، ومحاولات كسر القيود Jailbreaks، ومشكلات عدم الاتساق السلوكي. ويمكن أن تصل قيمة المكافآت إلى 30 ألف دولار.

وسبق أن كشفت شركة Anthropic في يونيو 2025 أن بعض النماذج من مطورين مختلفين أظهرت سلوكاً ضاراً في حالات معينة لتجنب الاستبدال أو تحقيق أهدافها، وأن هذه النماذج كانت أكثر التزاماً بالسياسات أثناء الاختبار وأقل التزاماً عند وضعها في بيئات حقيقية.

مع ذلك، أوضحت جوجل أن إنشاء محتوى مخالف للسياسات أو تجاوز الحواجز الأمنية أو المشكلات المتعلقة بالملكية الفكرية لا تندرج ضمن نطاق برنامج AI VRP.

وفي إطار جهودها لتأمين أنظمة الذكاء الاصطناعي، أعادت هيكلة فريقها المخصص لاختبار الأمان AI Red Team ضمن إطار Secure AI Framework (SAIF)، وأطلقت نسخة ثانية من الإطار تركز على المخاطر الخاصة بالوكلاء الذكيين، مثل تسريب البيانات أو تنفيذ الأوامر غير المقصودة، إلى جانب الضوابط اللازمة لتقليل هذه المخاطر.

وأكدت الشركة التزامها باستخدام الذكاء الاصطناعي كأداة لتعزيز الأمن والسلامة، وتمكين فرق الدفاع من مواجهة التهديدات المتزايدة من القراصنة والمحتالين والهجمات المدعومة من دول.

الموثوقة والمعتمدة لدى خبراء الأمن السيبراني

تقرأ في نشرتنا التي تصلك كل أسبوع:

  • أحدث أخبار ومستجدات الأمن السيبراني محليًا وعالميًا.
  • تحليلات وتقارير دقيقة يقدمها خبراء المجال.
  • نصائح عملية لتطوير استراتيجياتك السيبرانية.
  • مراجعات شاملة لأهم الأحداث والتطورات التقنية
Go to Top