| 66
خاتمة تكشــف دراســة تجربة اســتخدام أنظمة الذكاء الاصطناعي فــي الحرب على غزة تحــولات عميقة في طبيعة النزاعات المســلحة المعاصرة، ســواء على المســتوى العملياتي أو القانوني أو الأخلاقي. فقد أظهرت هذه التجربة أن الذكاء الاصطناعي ا في لم يعد يقتصر على دور الدعم التحليلي أو الاستخباراتي، بل أصبح عنصرًًا فاعلًا ا تدريجيًّّا نحو إدارة العمليات العسكرية وتحديد الأهداف؛ الأمر الذي يعكس انتقالًا نمــط جديــد من الحروب يعتمد بدرجة متزايدة على الخوارزميات وتحليل البيانات في اتخاذ القرارات القتالية. ويترتــب على هــذا التحول عدد من النتائج الجوهريــة: أول هذه النتائج يتمثل في إعادة تشــكيل طبيعة عملية الاســتهداف العسكري؛ حيث تعتمد الأنظمة الخوارزمية علــى تحليل البيانــات الضخمة وتصنيف الأفراد والمواقــع ضمن قواعد معلومات واســعة، وهو ما يؤدي إلى تحويل البشــر إلى وحدات معلوماتية داخل منظومات تحليل رقمية. ويثير هذا التحول إشكاليات أخلاقية عميقة؛ إذ قد يؤدي إلى تقليص الاعتبارات الإنســانية المرتبطة بحماية المدنيين، وتحويل حياة الأفراد إلى متغيرات ضمن معادلات احتمالية تعتمد عليها الأنظمة الذكية في تقدير الأهداف. كما كشــفت التجربة الغزِِّية عن إشــكالية قانونية بارزة تتعلق بما يُُعرف في الأدبيات . فحين تعتمد القرارات العسكرية على توصيات أنظمة " فجوة المسؤولية " المعاصرة بـ خوارزمية معقدة يصبح من الصعب تحديد الجهة المسؤولة عن نتائج هذه القرارات في حال وقوع أخطاء أو انتهاكات للقانون الدولي الإنساني. وقد يؤدي هذا الغموض في توزيع المســؤولية إلى إضعاف آليات المســاءلة القانونية، خصوص ًًا في الحالات التــي تتداخل فيهــا أدوار القادة العســكريين والمبرمجين والشــركات التكنولوجية المشاركة في تطوير هذه الأنظمة. ومــن ناحية أخرى، أظهرت الدراســة أن اســتخدام أنظمة الــذكاء الاصطناعي في العمليات العســكرية يثير تســاؤلات جدية حول مدى توافق هذه الممارســات مع المبادئ الأساســية للقانون الدولي الإنســاني، ولاســيما مبادئ التمييز والتناســب والحيطــة. فطبيعة الأنظمة الخوارزمية القائمة علــى التحليل الاحتمالي للبيانات قد
Made with FlippingBook Online newsletter