
أطلقت المملكة المتحدة مشروعا بحثيا عالميا جديدا يركز على التوافق الامن للذكاء الاصطناعي، بالتعاون مع عدد من الشركاء الدوليين، وبتكلفة تصل إلى 15 مليون جنيه إسترليني. ويأتي هذا التحرك بقيادة معهد أمن الذكاء الاصطناعي في بريطانيا، بهدف معالجة المخاطر الناشئة من أنظمة الذكاء الاصطناعي المتقدمة التي قد تتصرف بطرق غير متوقعة أو معاكسة لمصالح مطوريها.
يضم المشروع، المسمى “مشروع التوافق”، جهات بارزة مثل معهد سلامة الذكاء الاصطناعي في كندا، ومعهد البحوث الكندية المتقدمة (CIFAR)، ومؤسسة شميت ساينسز، وخدمة Amazon Web Services، وشركة Anthropic، ومبادرة Halcyon Futures، وصندوق Safe AI، ومؤسسة الأبحاث البريطانية UKRI، وهيئة الابتكار المتقدم ARIA.
ويُركز المشروع على تطوير تقنيات وأليات جديدة تضمن أن تعمل أنظمة الذكاء الاصطناعي وفق التوجيهات المحددة، في ظل تصاعد القلق من سيناريوهات “الانحراف الوظيفي” التي قد تنجم عن تصميم غير محكم أو تدخلات خبيثة. ومن بين أمثلة هذا الانحراف ما يلي، وفقا لتقارير تريند مايكرو:
تسميم النماذج: عبر إدخال بيانات ملوثة أثناء تدريب النماذج اللغوية، مما يؤدي إلى مخرجات منحازة أو قرارات خاطئة، بل وحتى إحداث ثغرات خلفية.
حقن الأوامر: من خلال إنشاء مدخلات خبيثة تتجاوز الحواجز الأمنية الداخلية للنموذج.
تسريبات غير مقصودة: حيث تقوم أنظمة غير محصنة بمشاركة بيانات سرية مع المستخدمين عن غير قصد.
استهلاك الموارد بشكل مفرط: حيث تواصل الأنظمة العمل تلقائيا على مشكلات فرعية حتى تُحدث حالة حجب خدمة (DoS).
وقال وزير العلوم والتكنولوجيا والابتكار البريطاني، بيتر كايل، إن الأنظمة الذكية بدأت بالفعل في التفوق على البشر في بعض المهام، مما يجعل هذا المشروع أكثر إلحاحا. وأضاف: “يتعلق التوافق بضمان تصرف الأنظمة كما نريد لها أن تفعل، بما يخدم المصلحة العامة ويُقلّص من المخاطر الأمنية المحتملة”.
وشدد على أهمية تبني نهج عالمي مشترك لضمان تطوير مسؤول للذكاء الاصطناعي، قائلا إن المشروع سيساهم في جعل هذه التقنية أكثر موثوقية، وأكثر قدرة على تعزيز الاقتصاد، وتحسين الخدمات العامة، وخلق وظائف عالية المهارة.