العدد 30

| 60

لـ ِص المجال الزمني المتاح � كمــا أن الســرعة العالية التي تعمل بها هذه الأنظمة تق للتفكيــر الأخلاقي أو القانوني في نتائج الضربات العســكرية. فالخوارزمية مصممة لتنفيذ التعليمات وتحليل البيانات بسرعة كبيرة، وهو ما قد يؤدي إلى تنفيذ عمليات الاستهداف في إطار زمني ضيق لا يسمح بقدر كاف من التدقيق البشري في العواقب .) 33 الإنسانية المحتملة( ، " فجوة المســؤولية " وترتبط بذلك إشــكالية أخــرى تُُعرف في الأدبيات القانونية بـ وهي الحالة التي يصبح فيها من الصعب تحديد الجهة المسؤولة عن القرارات التي تتخذها الأنظمة الخوارزمية. فعندما تُُنفََّذ ضربة عسكرية استنادًًا إلى توصية نظام ذكاء اصطناعي، يثور التساؤل حول الجهة التي ينبغي تحميلها المسؤولية القانونية في حال وقوع أخطاء تؤدي إلى سقوط ضحايا مدنيين: هل تقع المسؤولية على عاتق المبرمج الذي صمََّم النظام، أم الضابط الذي نفََّذ القرار، أم القيادة العســكرية التي اعتمدت ). ويؤدي هذا الغموض في تحديد المســؤولية إلى تعقيد 34 اســتخدام هذه التقنية؟( آليات المساءلة القانونية، وقد يفتح المجال أمام الإفلات من المحاسبة. ومن ناحية أخرى، تشــير بعض التحليلات إلى أن الاستخدام الواسع للخوارزميات ا ًا ا أوســع في طبيعة الردع العسكري. فبدل في عمليات الاســتهداف قد يعكس تحولًا من الاعتماد على الردع التقليدي القائم على التهديد بالقوة أو الرد على الهجمات، قد تتيح أنظمة التحليل الخوارزمي إمكانات أكبر للعمليات الاســتباقية التي تســتند إلى التنبؤ بالتهديدات المحتملة. وفي مثل هذه الحالات قد يصبح الاستهداف قائمًًا سـ ِع نطاق الأهداف � على تقديرات احتمالية أو ارتباطات غير مباشــرة، وهو ما قد يو .) 35 المحتملة ويزيد مخاطر وقوع خسائر مدنية( ولا تقتصــر دلالات هــذه التطورات على الحالة الغزِِّية وحدها بل تمتد إلى النقاش الأوســع حول مســتقبل الحروب في عصر الذكاء الاصطناعي. إذ تشير هذه التجربة إلى احتمال انتقال بعض النزاعات المعاصرة نحو أنماط من الحروب تعتمد بدرجة متزايدة على الخوارزميات وتحليل البيانات في إدارة العمليات العســكرية. كما تثير تساؤلات متزايدة حول مدى قدرة الأطر القانونية الحالية على التعامل مع التحديات التي تطرحها الأنظمة المؤتمتة، خاصة فيما يتعلق بتحديد المسؤولية الجنائية وحماية .) 36 المدنيين في النزاعات المسلحة(

Made with FlippingBook Online newsletter