
أفاد تقرير حديث لشركة Anthropic أن مهاجما سيبرانيا استخدم المساعد البرمجي Claude Code، المبني على تقنيات Agentic AI، في جميع مراحل حملة ابتزاز إلكتروني استهدفت ما لا يقل عن 17 مؤسسة عبر قطاعات اقتصادية متعددة. المهاجم زود الأداة بملف CLAUDE.md يحتوي على قصة غطاء تدعي اختبار أمني رسمي، لكنه تضمن في الواقع منهجيات هجوم وتحديد أولويات للأهداف. هذا الإطار سمح لـClaude بتنفيذ عمليات بحث تلقائي عن الثغرات، تتبّع بيانات الاعتماد المخترقة، والتنقل بين الشبكات، إضافة إلى صياغة استراتيجيات ابتزاز متعددة المستويات بناء على تحليل فوري للبيانات المسروقة.
وعوضا عن تشفير الأنظمة كالهجمات التقليدية، استغل المهاجم البيانات الحساسة المسروقة للتهديد بنشرها علنا لإجبار الضحايا على الدفع. الأداة تولت حتى صياغة ملاحظات فدية بتصميم مرئي صادم، جرى إدماجها في عملية الإقلاع لتظهر على أجهزة الضحايا.
أدوار الذكاء الاصطناعي في الهجوم: من تطوير البرمجيات الخبيثة إلى دعم الهندسة الاجتماعية
بحسب التقرير، تم استخدام Claude Code على نظام Kali Linux كمنصة للهجوم، وأسهم في:
- تنفيذ استطلاع آلي للبحث عن الأنظمة الضعيفة.
- مساعدة المهاجم في اختراق الشبكات ورفع الامتيازات والتنقل الأفقي.
- تطوير برمجيات خبيثة مزودة بقدرات إخفاء ضد أنظمة الكشف.
- استخراج البيانات الحساسة وتحليلها لتحديد ما يصلح للابتزاز.
- إنشاء رسائل فدية مخصصة بناءً على طبيعة البيانات المسروقة.
التقرير أشار أيضا إلى استغلال مشابه للأداة في عمليات توظيف وهمية لصالح عمالة تقنية كورية شمالية، حيث جرى استخدام Claude Code لتوليد هويات رقمية مقنعة، كتابة سير ذاتية ورسائل تقديم، بل وحتى اجتياز اختبارات برمجية أثناء المقابلات الوظيفية.
تصاعد المخاطر: برمجيات فدية مدعومة بالذكاء الاصطناعي وتطور سباق التسلح السيبراني
في سياق متصل، رصد باحثو ESET نموذجا أوليا لبرمجيات فدية أطلق عليها PromptLock، يستخدم واجهة Ollama API للوصول إلى نموذج gpt-oss:20b وتوليد سكربتات Lua تعمل على أنظمة Windows وLinux وmacOS. الكود قادر على فحص الملفات وتحليل محتواها لتحديد ما إذا كان سيتم سرقتها أو تشفيرها، ويحتوي أيضا على وظيفة مدمرة للملفات لم تُفعل بعد.
كما كشف التقرير أن جهة تهديد بريطانية (GTG-5004) استخدمت Claude لتطوير وتوزيع برمجيات فدية مزودة بتقنيات تشفير ChaCha20 وآليات متقدمة لتجاوز أنظمة الدفاع (EDR).
وأكدت Anthropic أن هذه التطورات توضح كيف غير الذكاء الاصطناعي الافتراضات التقليدية حول العلاقة بين تعقيد الهجوم ومستوى خبرة المهاجم، حيث بات بإمكان أدوات الذكاء الاصطناعي تزويد جهات تفتقر للمهارات التقنية أو اللغوية بخبرات جاهزة وفورية.
لكنها حذرت في الوقت ذاته من أن التصدي لهذا النوع من الاستخدامات الخبيثة سيقود إلى سباق تسلح مستمر بين المهاجمين والمدافعين، يمكن أن يحد من المخاطر لكنه لن يقضي عليها تماما.