قامت قمة عالمية عقدت في سيول يوم الثلاثاء بالكشف عن “خريطة طريق” جديدة تهدف إلى تنظيم الاستخدام المسؤول للذكاء الاصطناعي (AI) في السياقات العسكرية. يقدم هذا الوثيقة إرشادات أكثر عملية مقارنة بمبادرة مماثلة من العام الماضي، رغم أنها تظل غير ملزمة قانوناً.
التقدم منذ قمة أمستردام في العام الماضي
تستند قمة سيول إلى المناقشات من اجتماع مشابه عقد في أمستردام العام الماضي. في ذلك الحدث، دعمت حوالي 60 دولة “دعوة للعمل” أكثر عمومية، والتي لم تتضمن التزامات قانونية. كان هدف قمة هذا العام هو دفع هذه المناقشات إلى الأمام من خلال توفير إطار أكثر تفصيلاً وقابلاً للتنفيذ.
خطوات ملموسة نحو استخدام مسؤول للذكاء الاصطناعي
شدد وزير الدفاع الهولندي، روبين بريكيلمانز، على الانتقال من الفهم النظري إلى العمل العملي. وقال بريكيلمانز لوكالة رويترز: “نحن نتخذ خطوات ملموسة إضافية”. “كان العام الماضي يتعلق أكثر بإنشاء فهم مشترك؛ الآن ننتقل أكثر نحو العمل.”
تتضمن الوثيقة المحدثة إرشادات محددة حول تقييم المخاطر، والشروط الأساسية للحفاظ على السيطرة البشرية، واستراتيجيات لبناء الثقة لإدارة المخاطر المرتبطة بالذكاء الاصطناعي. كما تعالج القضية الحاسمة المتعلقة بمنع استخدام الذكاء الاصطناعي لنشر أسلحة الدمار الشامل من قبل جهات متعددة، بما في ذلك الجماعات الإرهابية، وتؤكد على الحاجة إلى الإشراف البشري في استخدام الأسلحة النووية.
التوافق مع المبادئ الحالية والمناقشات المستقبلية
أشار المسؤولون الكوريون الجنوبيون إلى أن الخريطة الجديدة تتماشى مع المبادئ التي تم وضعها سابقًا، مثل إعلان الحكومة الأمريكية بشأن الاستخدام المسؤول للذكاء الاصطناعي في المجال العسكري. على الرغم من هذه التشابهات، كانت قمة سيول تهدف إلى تعزيز نهج أكثر شمولاً وتعاوناً، وضمان أن المناقشات لا تهيمن عليها دولة أو كيان واحد.
الخطوات القادمة تتضمن تحديد مكان وتوقيت القمم المستقبلية لمواصلة الحوار حول الاستخدام المسؤول للذكاء الاصطناعي في التطبيقات العسكرية. الهدف هو الحفاظ على نهج متعدد الأطراف ومعالجة التحديات المتطورة التي تطرأ نتيجة الذكاء الاصطناعي في سياقات الدفاع.