أ.د. غادة محمد عامر
عميد- كلية الهندسة – جامعة مصر للعلوم والتكنولوجيا
زميل ومحاضر الأكاديمية العسكرية للدراسات العليا والاستراتيجية
كشفت التحقيقات الإعلامية الأخيرة، إن أنظمة الاستهداف الإسرائيلية للذكاء الاصطناعي مثل “لافندر” و”الإنجيل” تستخدم لتنفيذ المذابح الجماعية والدمار في جميع أنحاء فلسطين. وهذا هو تجسيد للعديد من انتهاك حقوق الإنسان التي تعتمد على الذكاء الاصطناعي، مثل أنظمة المراقبة البيومترية وأدوات الشرطة التنبؤية، وغيرها من التقنيات التي تستخدمها إسرائيل ضد الفلسطينيين. إن الحرب المعززة بالذكاء الاصطناعي التي تشنها إسرائيل الآن في فلسطين توضح الحاجة الملحة للحكومات لحظر استخدام التقنيات التي لا تتوافق مع حقوق الإنسان في أوقات السلم وكذلك الحرب. إن استخدام إسرائيل للذكاء الاصطناعي في الحرب ليس جديدًا. فمنذ سنوات استخدمت إسرائيل قطاع غزة كحقل اختبار للتكنولوجيات والأسلحة الجديدة، والتي تبيعها لاحقًا لدول أخرى. حتى أن قوات الدفاع الإسرائيلية وصفت قصفها العسكري الذي استمر 11 يومًا لغزة في مايو 2021م بأنه “أول حرب ذكاء اصطناعي”. وفي هجومها الحالي على غزة، استخدمت إسرائيل ثلاث فئات من أدوات الذكاء الاصطناعي، الفئة الأولى هي فئة أنظمة الأسلحة المستقلة القاتلة (LAWS) والأسلحة شبه المستقلة (semi-LAWS)، حيث استخدم الجيش الإسرائيلي الطائرات رباعية المروحية التي يتم التحكم فيها عن بعد والمجهزة بمدافع رشاشة وصواريخ لمراقبة وإرهاب وقتل المدنيين الذين يحتمون في الخيام والمدارس والمستشفيات والمناطق السكنية. وقد أفاد سكان مخيم النصيرات للاجئين في غزة أن بعض الطائرات بدون طيار تبث أصوات بكاء الأطفال والنساء، من أجل إغراء الفلسطينيين واستهدافهم. وقبل هذا بعدة سنوات نشرت إسرائيل “طائرات بدون طيار انتحارية” و”روبوت قناصة” آليًا وأبراجًا تعمل بالذكاء الاصطناعي لإنشاء “مناطق قتل آلية” على طول حدود غزة. وفي عام 2021م، نشرت أيضًا روبوتًا عسكريًا شبه مستقل يُدعى “جاكوار”، والذي تم الترويج له باعتباره أحد أول الروبوتات العسكرية في العالم الذي يمكنه أن يحل محل الجنود على الحدود. هذا الروبوت طورته شركة الصناعات الفضائية الإسرائيلية (IAI)، وتم تجهيزه بمدفع رشاش MAG مقاس 7.62 ملم يمكنه العمل أثناء الثبات أو الحركة، ويستخدم الروبوت كاميرات عالية الدقة، وأجهزة إرسال، ومصابيح أمامية قوية، ونظام ( Public Address) ,يتم التحكم فيه عن بُعد – هو نظام تضخيم صوتي يسمح للمستخدمين بالتحكم في مخرجات الصوت من مسافة بعيدة، عادةً باستخدام تقنية لاسلكية- والجانب الأكثر تميزًا في جاكوار هو أنه قادر على القيادة بمفرده إلى وجهة محددة مسبقًا أثناء اكتشاف العقبات وتجاوزها باستخدام أجهزة استشعار ونظام قيادة متقدم ، كما أنه لديه القدرة على التدمير الذاتي إذا وقع في أيدي العدو!
الفئة الثانية من أدوات الذكاء الاصطناعي التي استخدمتها إسرائيل هي أنظمة التعرف على الوجه والمراقبة البيومترية، حيث كان غزو إسرائيل البري لغزة فرصة لتوسيع نطاق المراقبة البيومترية للفلسطينيين، والتي تم نشرها من قبل في الضفة الغربية والقدس الشرقية. وذكرت صحيفة نيويورك تايمز كيف يستخدم الجيش الإسرائيلي نظامًا موسعًا للتعرف على الوجه في غزة “لإجراء مراقبة جماعية هناك، وجمع وفهرسة وجوه الفلسطينيين دون علمهم أو موافقتهم”. ووفقًا للتقرير، يستخدم هذا النظام تكنولوجيا من شركة “كورسايت” الإسرائيلية و”جوجل فوتوز” لاختيار الوجوه من بين الحشود وحتى من لقطات الطائرات بدون طيار. أما الفئة الثالثة هي أنظمة توليد الأهداف الآلية وأبرزها نظام Gospel الذي يولد أهدافاً تتعلق بالبنية التحتية، ونظام Lavender الذي يولد أهدافاً بشرية فردية، ونظام Where is Daddy؟ وهو نظام مصمم لتتبع واستهداف المشتبه بهم عندما يكونون في منازلهم مع عائلاتهم. لقد أدانت الأمم المتحدة الأسلحة الآلية وشبه الآلية، باعتبارها “غير مقبولة سياسيا وأخلاقيا”، وهناك دعوات متزايدة لحظرها. فبعيدا عن افتقار مثل هذه الأنظمة إلى الدقة أو التحقق البشري، فإن هناك قلقا وجوديا أكثر يتمثل في كيفية تعارض استخدامها بشكل أساسي مع حقوق الإنسان، والكرامة الإنسانية المتأصلة التي تنبع منها هذه الحقوق. ويتجلى هذا في حقيقة مفادها أن أنظمة الاستهداف التي تعمل بالذكاء الاصطناعي في إسرائيل تعمل على النحو المقصود تماما في التدمير والقتل؛ وكما قال جيش الدفاع الإسرائيلي، “نحن نركز الآن على ما يسبب أقصى قدر من الضرر”. وفعلا يستخدم الجيش الإسرائيلي صواريخ غير موجهة، أو “قنابل غبية”، لاستهداف مسلحين صغار مزعومين تم تمييزهم باللافندر في منازلهم. وقد أدى هذا، إلى القتل الجماعي للفلسطينيين ومستوى من الدمار لم نشهده منذ الحرب العالمية الثانية، وفقا للأمم المتحدة. إن استخدام أنظمة الاستهداف بالذكاء الاصطناعي هذه يخفف فعليا من المسؤولية البشرية عن قرارات الحياة والموت، في محاولة لإخفاء أنظمة متطورة تستخدم في الدمار الشامل والقتل دون أدى مسؤولية جنائية. فمثلا لا توجد طرق محاسبة أخلاقية أو إنسانية لمن يستخدم أنظمة مثل Lavender أو Where is Daddy؟ لأنها تقوم على نزع الصفة الإنسانية عن الناس.
إن استخدام أنظمة توليد الأهداف بالذكاء الاصطناعي في الحرب، إلى جانب المراقبة الجماعية البيومترية، يستحق المزيد من الاهتمام للحد من مخاطر هذه التقنية ليس فقط على حقوق الانسان، بل على الإبادة الجماعية لبعض الشعوب. إن كل ما ذكرناه أعلاه يؤكد على أن البنية التحتية للمراقبة التي تم تطويرها ونشرها أثناء وقت السلم تم إعادة استخدامها بسهولة أثناء الحرب والتي تتسبب في أسوأ انتهاكات حقوق الإنسان. وهذا يثير تساؤلات حول دور شركات التكنولوجيا الكبرى في توفير التقنيات المدنية التي يمكن استخدامها لأغراض عسكرية وأبرزها خدمات الحوسبة السحابية والتعلم الآلي التي تقدمها جوجل، وأمازون “ويب سيرفيس”، وميتا لإسرائيل من خلال Project Nimbus، فمثلا بات معروفاً أن البيانات الوصفية من WhatsApp، المملوك لشركة “ميتا” تُستخدم لتوفير البيانات لنظام الاستهداف “لافندر”.
إن شركات مثل جوجل، وأمازون ويب سيرفيس، وميتا ومن خلال الاستمرار في تقديم هذه الخدمات للحكومة الإسرائيلية، تخاطر بالتواطؤ في مساعدة أو تحريض الجهاز العسكري والاستخباراتي الإسرائيلي في القيام بجرائمه الفظيعة ضد الشعب الفلسطيني في غزة. إن الأنظمة التي تستخدمها إسرائيل في غزة، جنبًا إلى جنب مع مختبر المراقبة الجماعية الذي أنشأته الحكومة الإسرائيلية منذ فترة طويلة ويتوسع باستمرار، يقدم لمحة عن مستقبل أكثر “ديستوبيًا” كارثيا بمعنى الكلمة، لأنه عندما نفكر في تأثير مثل هذه الأنظمة على حقوق الإنسان، نحتاج إلى النظر في العواقب، أولاً، إذا تعطلت وثانياً، إذا عملت على النحو المقصود. في كلتا الحالتين، فإن تقليص الدور البشري له عواقب وخيمة على كرامة الناس وسلامتهم وحياتهم.