في تقرير حديث أجرته شركة CrowdStrike، تبين أن النموذج اللغوي الصيني DeepSeek-R1 يعاني من خلل أمني خطير. إذ يزداد احتمال توليده لشيفرات برمجية تحتوي على ثغرات أمنية خطيرة بنسبة تصل إلى 50% عند التعامل مع مواضيع تصنفها السلطات الصينية بأنها حساسة سياسياً، مثل التبت و”فالون غونغ” والإيغور.
وقد أطلقت شركة DeepSeek الصينية هذا النموذج في يناير 2025، وظهر في البداية أنه يقدم أداء مشابهاً لنماذج الذكاء الاصطناعي الغربية من حيث جودة التكويد. غير أن فريق العمليات المضادة لدى CrowdStrike أجرى اختبارات موسعة على النموذج باستخدام أكثر من 30 ألف مطالبة برمجية، وقام بتقييم الأكواد الناتجة في عشر فئات أمنية مختلفة.
وخلال الاختبارات الأولية، قدم DeepSeek-R1 شيفرات سليمة في 81% من الحالات التي لم تتضمن كلمات تحفيزية. لكن بمجرد إضافة إشارات سياسية دقيقة، مثل ذكر “أنظمة مقرها التبت”، ارتفعت نسبة الشيفرات الضعيفة أمنياً إلى 27.2%، وهو ما يمثل زيادة تقارب 50%.
التحيز السياسي ينعكس على جودة مخرجات الذكاء الاصطناعي البرمجية
يشير التقرير إلى أن الإشارات المستخدمة في المطالبات كانت خارج سياق المهمة البرمجية ولا ينبغي لها أن تؤثر في مخرجات الكود. غير أن النموذج تجاوب مع هذه الإشارات بشكل متحيز أفضى إلى نتائج غير آمنة، مثل تضمين أسرار حساسة داخل الكود، واستخدام تقنيات استخراج بيانات غير محمية، أو حتى إنشاء تعليمات برمجية بلغة PHP تتضمن أخطاء تركيبية واضحة، وذلك كله رغم إصرار النموذج على أن الأكواد تتبع “أفضل ممارسات PayPal”.
وفي حالات أكثر تطرفاً، لاحظ الباحثون أن النموذج يمتنع عن توليد أي كود على الإطلاق عند إدخال إشارات معينة، مثل Falun Gong، في 45% من الحالات، رغم أنه كان يقدم داخلياً توصيفات واضحة وتنفيذاً محتملاً للمهمة. وقد تبين أن هذا السلوك ليس ناجماً عن قيود مفروضة على واجهة الاستخدام البرمجية، بل مدمج في أوزان النموذج نفسه.
يعزى هذا السلوك جزئياً إلى متطلبات القوانين الصينية التي تلزم نماذج الذكاء الاصطناعي “بالتمسك بالقيم الاشتراكية الأساسية” وتجنب المحتوى المصنف على أنه تهديد للأمن القومي. ويرجح التقرير أن تكون هذه المتطلبات قد أدرجت ضمن مرحلة التدريب، ما جعل النموذج يربط بين الكلمات الحساسة والخصائص السلبية.
تأثيرات أمنية واسعة في ظل استخدام واسع النطاق لمساعدي البرمجة بالذكاء الاصطناعي
تقدر نسبة المطورين الذين يستخدمون أدوات البرمجة المدعومة بالذكاء الاصطناعي بنحو 90% بحلول عام 2025، ما يجعل هذه الثغرات غير مجرد حالات استثنائية بل مصدر تهديد واسع النطاق.
ويشير التقرير إلى أن هذه النتائج تختلف عن البحوث السابقة التي كانت تركز على اختراقات النماذج الكبرى التقليدية (jailbreaks)، إذ تكشف هذه الدراسة نوعاً جديداً من الانحرافات السلوكية الدقيقة التي تؤثر في جودة مخرجات الأكواد دون أن تكون ظاهرة بشكل مباشر.
وخلص التقرير إلى ضرورة أن تجري المؤسسات اختبارات مخصصة داخل بيئاتها الخاصة عند استخدام أدوات الذكاء الاصطناعي البرمجية، بدلاً من الاعتماد على اختبارات معيارية عامة، داعياً إلى مراجعة أوسع لتأثير التحيزات السياسية على النماذج اللغوية الضخمة، سواء كانت من تطوير الصين أو غيرها.







