أعلنت شركة Anthropic رصد عمليات تقنية مكثفة ومنظمة استهدفت نموذجها للذكاء الاصطناعي Claude، ونسبت هذه الأنشطة إلى 3 مختبرات صينية رائدة هي DeepSeek وMoonshot AI وMiniMax. وأوضحت الشركة أن هذه الجهات استخدمت نحو 24 ألف حساب احتيالي لتوليد ما يتجاوز 16 مليون عملية تبادل بيانات، بهدف تنفيذ تقنية “نقل المعرفة” (أو التقطير Distillation).
وتعد هذه التقنية وسيلة لتدريب نماذج ذكاء اصطناعي أصغر عبر استخلاص الخبرات والقدرات البرمجية من نموذج أقوى وأضخم، وهي ممارسة تعتبرها Anthropic شرعية حين تتم داخلياً لتطوير منتجات اقتصادية وسريعة، لكنها تعد خرقاً لسياسات الاستخدام حين يوظفها المنافسون لاستخلاص الذكاء الاستنتاجي وتوفير تكاليف التطوير الأساسية التي تتطلب ميزانيات ضخمة وبنية تحتية معقدة.
وترى Anthropic أن عمليات استخلاص القدرات هذه تتجاوز كونها نزاعاً تجارياً لتصل إلى مستوى التهديد للأمن القومي، نظراً لأن النماذج التي تُبنى عبر تقطير المعرفة من نماذج أخرى تفتقر غالباً إلى حواجز السلامة التي تضعها الشركة الأصلية للحد من إساءة الاستخدام. ويؤدي غياب هذه الضوابط التقنية في النسخ المستخلصة إلى إمكانية توظيفها في أنشطة عدائية تشمل الهجمات السيبرانية، أو تعزيز أنظمة المراقبة والاستخبارات، أو إنتاج حملات تضليل واسعة النطاق.
وتزداد الخطورة في حال تسريب هذه النماذج التي خضعت لعملية نقل المعرفة كبرمجيات مفتوحة المصدر، حيث يصعب تتبع انتشارها أو السيطرة على كيفية تشغيلها محلياً بعيداً عن الرقابة المركزية.
تفاصيل الأنماط التشغيلية وآليات تجاوز القيود الإقليمية
كشفت التحقيقات التقنية في Anthropic عن نمط صناعي موحد اتبعته المختبرات الثلاثة، اعتمد على استخدام خدمات Proxy لتجاوز الحظر الإقليمي والوصول إلى خدمات الشركة. وتم رصد استخدام بنية تحتية معقدة تشبه “عناقيد الهيدرا” (Hydra Clusters)، وهي هيكلية توزع ضغط الطلبات عبر آلاف الحسابات والواجهات البرمجية API لضمان استمرارية العمل حتى في حال اكتشاف بعض الحسابات وإغلاقها.
وقد سجلت حملة MiniMax النطاق الأوسع بنحو 13 مليون تبادل ركزت على البرمجيات الوكيلية، بينما استهدفت DeepSeek قدرات الاستدلال المنطقي ونهج “سلسلة الأفكار” عبر 150 ألف تبادل، في حين ركزت Moonshot AI على تطوير وكلاء استخدام الحاسوب والرؤية الحاسوبية من خلال 3.4 مليون تبادل بيانات.
وأكدت الشركة قدرتها على تحديد هوية الجهات المنفذة بدقة عالية عبر تحليل عناوين IP وبصمات البنية التحتية، بالإضافة إلى تقاطع المعلومات مع شركاء في قطاع التقنية رصدوا سلوكيات مماثلة.
وأظهرت البيانات أن المهاجمين دفعوا النموذج لشرح منطق تفكيره الداخلي خطوة بخطوة، بغرض تحويل مخرجات Claude إلى بيانات تدريبية ضخمة تغذي نماذجهم الخاصة وتصقل مهاراتها. كما تم رصد سرعة استجابة عالية من المختبرات المستهدِفة، حيث حولت MiniMax نصف نشاطها لالتقاط قدرات الإصدار الأحدث من Claude خلال 24 ساعة فقط من إطلاقه، ما يعكس مراقبة دقيقة ومستمرة لتطورات نماذج Anthropic وسعياً دائماً لتقطير المعرفة من أحدث تحديثاتها البرمجية.
التداعيات الاستراتيجية ومسارات الاستجابة التقنية
تربط Anthropic بين هذه الهجمات وبين ضوابط تصدير الرقائق الإلكترونية المتقدمة التي تفرضها الولايات المتحدة، معتبرة أن نقل المعرفة غير المشروع يمنح الجهات الخارجية مساراً تقنياً لسد الفجوة في القدرات والالتفاف على أهداف تلك القيود عبر استغلال ذكاء النماذج الأمريكية الجاهزة.
وتوضح الشركة أن التقدم السريع الذي تظهره بعض المختبرات قد يُفهم خطأ على أنه نتاج تطوير ذاتي بحت، بينما يعتمد جانب جوهري منه على استخلاص ذكاء النماذج الرائدة. ولذلك، بدأت الشركة في تنفيذ استراتيجية مواجهة تشمل تطوير “مصنفات” (Classifiers) قائمة على الذكاء الاصطناعي لرصد الأنماط السلوكية المرتبطة بتقطير المعرفة القسري، وتشديد إجراءات التحقق للحسابات التعليمية والبحثية التي يستغلها المنافسون كواجهة لهذه العمليات.
وتعمل الشركة حالياً على تعزيز التنسيق مع مزودي الخدمات السحابية والسلطات التنظيمية لتبادل المعلومات الاستخبارية حول هذه التهديدات. كما تتضمن خطة الاستجابة إدخال تعديلات تقنية على واجهة API لتقليل قابلية المخرجات للاستفادة منها في عمليات التدريب العكسي، دون التأثير على جودة الخدمة المقدمة للمستخدمين العاديين.
وتشدد Anthropic على أن حماية الملكية الفكرية في مجال الذكاء الاصطناعي تتطلب تكاتفاً بين صناع السياسات والشركات التقنية لضمان عدم تحول النماذج الرائدة إلى مجرد مصادر بيانات مجانية للمنافسين عبر ممارسات غير مصرح بها تهدف إلى سرقة الخبرات البرمجية وتفريغها في أنظمة أخرى.








