63 |
وقد أثارت هذه الممارسات تساؤلات قانونية تتعلق بالحق في الخصوصية؛ إذ تشير بعــض التحليلات إلى أن جمع البيانات البيومتريــة للأفراد دون موافقة واضحة قد ) من العهد الدولي الخاص بالحقوق المدنية والسياسية، التي 17 يتعارض مع المادة ( ). وتجدر الإشارة 48 تحظر التدخل التعســفي أو غير القانوني في خصوصية الأفراد( إلى أن إسرائيل طرف في هذا العهد منذ تصديقها عليه في الثالث من أكتوبر/تشرين .) 49 ؛ ما يجعلها ملزمة قانونيًّّا بأحكامه( 1991 الأول وفــي ضوء هــذه التطورات، يطرح إدماج الذكاء الاصطناعــي في العمليات القتالية تحديات غير مسبوقة أمام منظومة القانون الدولي الإنساني. فالخوارزميات لا تمتلك قــدرة ذاتية على التمييز الأخلاقي بل تعتمد على تحليل احتمالي للبيانات والأنماط السلوكية، وهي بيانات قد تكون ناقصة أو متحيزة. ومن ثم فإن الاعتماد المتزايد على هذه الأنظمة يفرض الحاجة إلى تطوير أطر قانونية أكثر وضوح ًًا لتنظيم اســتخدامها .) 50 وضمان توافقها مع المبادئ الأساسية للقانون الدولي الإنساني( . التحديات القانونية والأخلاقية لاستخدام الذكاء الاصطناعي في العمليات العسكرية 2 يثير استخدام أنظمة الذكاء الاصطناعي في العمليات العسكرية عددًًا من الإشكالات القانونيــة والأخلاقيــة المعقدة، وفي مقدمتها ما يُُعرف في الأدبيات القانونية بمفهوم ). فحين تعتمد القرارات العسكرية على Responsibility Gap ( " فجوة المســؤولية " توصيــات أنظمــة خوارزمية في تحديد الأهداف أو تحليل البيانات الاســتخباراتية، يصبح من الصعب تحديد الجهة المسؤولة قانونيًّّا عن نتائج هذه القرارات في حال وقوع أخطاء تؤدي إلى سقوط ضحايا مدنيين. فقد يرى المبرمِِج أنه صم ََّم أداة تقنية محايدة، بينما قد يعتبر الضابط العسكري أنه اعتمد على توصية تقنية متخصصة، في حين قد ترى القيادة العســكرية أن القرار اســتند إلى تحليلات يُُفترض أنها موثوقة. ويؤدي هذا التداخل في المسؤوليات إلى خلق فراغ قانوني قد يعقِِّد آليات المساءلة .) 51 في حال وقوع انتهاكات للقانون الدولي الإنساني( وترتبط هذه الإشكالية أيض ًًا بطبيعة البيانات التي تعتمد عليها الخوارزميات في عملها. فالأنظمة القائمة على التعلم الآلي تعتمد على تحليل بيانات بشرية، وهي بيانات قد لا تكون محايدة دائمًًا؛ إذ يمكن أن تتضمن هذه البيانات أنماط ًًا من التحيزات العرقية
Made with FlippingBook Online newsletter