تجارب الذكاء الاصطناعي الإسرائيلية في حرب غزة تثير مخاوف أخلاقية

القاهرة (خاص عن مصر)- شهد تجارب الذكاء الاصطناعي الإسرائيلية في العمليات العسكرية توسعًا سريعًا، حيث برزت إسرائيل كواحدة من أكثر الدول نشاطًا في دمج أدوات الذكاء الاصطناعي في جهودها الحربية.
مع ذلك، وفقا لتقرير نيويورك تايمز، أثار استخدام هذه التقنيات في صراع غزة تساؤلات أخلاقية جوهرية، لا سيما فيما يتعلق بالخسائر المدنية، والتعرف الخاطئ على هويات الضحايا، وتأثير ذلك على الحرب بشكل عام.
تجارب الذكاء الاصطناعي الإسرائيلية
في أواخر عام 2023، سعت إسرائيل إلى القضاء على إبراهيم البياري، أحد قادة حماس، في شمال قطاع غزة، ورغم الجهود المكثفة التي بذلتها الاستخبارات الإسرائيلية، ظل البياري بعيد المنال، مختبئًا في أنفاق غزة المعقدة.
لتعقبه، استخدمت الوحدة 8200 الإسرائيلية – وهي فرقة شبيهة بوكالة الأمن القومي – أداة ذكاء اصطناعي مُطورة حديثًا، قامت بتحليل تسجيلات صوتية مُعترضة من مكالمات البياري الهاتفية.
هذه التقنية، التي كانت قيد التطوير لما يقرب من عقد من الزمان، وفّرت موقعًا تقريبيًا لبياري، مما أدى إلى غارة جوية في 31 أكتوبر 2023، والتي أودت بحياته، وللأسف، قُتل أكثر من 125 مدنيًا أيضًا في الغارة، وفقًا لمراقب الصراعات Airwars.
شكّلت هذه الغارة الجوية إحدى أولى حالات اختبار تقنية الذكاء الاصطناعي العسكرية في الوقت الفعلي في بيئة قتالية حية، مما يوفر أداة قوية للاستراتيجية العسكرية وتذكيرًا صارخًا بالمخاطر الأخلاقية المرتبطة بحرب الذكاء الاصطناعي.
التعرف على الوجه، وأدوات الصوت، وروبوتات الدردشة
أدمجت إسرائيل الذكاء الاصطناعي بسرعة في جوانب متعددة من استراتيجيتها العسكرية، ويشمل ذلك برامج التعرف على الوجه، التي استُخدمت لمطابقة الوجوه المحجوبة جزئيًا أو المصابة بالهويات الحقيقية، وخوارزميات التعلم الآلي المصممة لغربلة كميات هائلة من بيانات الاستخبارات.
من أكثر الأدوات إثارة للجدل نظام ذكاء اصطناعي كبير باللغة العربية، نموذج يُشغّل روبوت دردشة قادر على مسح منشورات وسائل التواصل الاجتماعي والرسائل النصية وغيرها من الاتصالات لتتبع التهديدات المحتملة.
مكّنت تجارب الذكاء الاصطناعي الإسرائيلية من اتخاذ قرارات سريعة بشأن الأهداف، مثل استخدام طائرات بدون طيار تعمل بالذكاء الاصطناعي لتحديد الأهداف وتتبعها بدقة عالية، ومع ذلك، فقد أدى دمج الذكاء الاصطناعي أيضًا إلى مشاكل أخلاقية كبيرة، لا سيما فيما يتعلق بموثوقية هذه الأدوات في تحديد الأهداف الصحيحة.
على سبيل المثال، يُخطئ برنامج التعرف على الوجه أحيانًا في تحديد هوية الأشخاص، مما يؤدي إلى اعتقالات واستجوابات غير مشروعة لفلسطينيين أبرياء.
وبالمثل، وُجد أن روبوت الدردشة المُدار بالذكاء الاصطناعي والمُستخدم لتحليل المشاعر العامة باللهجات العربية يُقدم نتائج غير دقيقة في بعض الأحيان، حيث يعرض صورًا غير ذات صلة أو معلومات غير صحيحة.
في حين أن هذه الأدوات سرّعت البحث والتحليل، إلا أن عيوبها أثارت مخاوف بشأن احتمالية حدوث أخطاء في القرارات العسكرية التي تُحدد الحياة أو الموت.
أخلاقيات الذكاء الاصطناعي في الحرب
هاداس لوربر، رئيسة معهد الأبحاث التطبيقية في الذكاء الاصطناعي المسؤول في إسرائيل، أثارت مخاوف بشأن الاستخدام غير المنضبط لهذه التقنيات في الحروب.
مع إقرارها بالمزايا التي وفرها الذكاء الاصطناعي لإسرائيل في عملياتها العسكرية، حذرت لوربر من أن هذه التقنيات تحتاج إلى إشراف دقيق، وأكدت أن البشر يجب أن يظلوا أصحاب القرار النهائي، لا سيما فيما يتعلق بالاستهداف واستخدام القوة المميتة.
قالت لوربر: “إن الحاجة الملحة للتعامل مع الأزمة سرّعت الابتكار، الذي يعتمد في معظمه على الذكاء الاصطناعي”، “لقد أدى ذلك إلى تقنيات غيرت قواعد اللعبة في ساحة المعركة ومزايا أثبتت أهميتها في القتال، لكن هذه التقنيات تثير أيضًا تساؤلات أخلاقية خطيرة”.
يؤكد الجيش الإسرائيلي التزامه بالاستخدام المسؤول لأدوات تكنولوجيا البيانات، ويجري تحقيقًا في الغارة الجوية التي أودت بحياة بياري.
ومع ذلك، يشعر النقاد بالقلق من احتمال اعتماد أدوات الذكاء الاصطناعي بشكل مفرط على أنظمة آلية قد لا تستوعب تمامًا تعقيدات مواقف القتال في العالم الحقيقي، لا سيما في المناطق الحضرية المكتظة بالسكان مثل غزة.
اقرأ أيضا.. اغتيال جنرال روسي رفيع المستوى في انفجار سيارة مفخخة بموسكو
الذكاء الاصطناعي ومستقبل الحرب
استخدام إسرائيل المكثف للذكاء الاصطناعي تُلقي أحداث غزة نظرةً على مستقبل الحرب، حيث قد تتأثر القرارات العسكرية بشكلٍ متزايد بالذكاء الاصطناعي.
مع ذلك، فإن هذا التبني السريع لتقنيات الذكاء الاصطناعي في القتال يُثير معه مجموعةً من المعضلات الأخلاقية، بما في ذلك المخاوف بشأن المساءلة والشفافية واحتمالية الخطأ البشري.
تُعدّ قضية اغتيال إبراهيم البياري مثالاً واحداً على المخاطر المرتبطة بحرب الذكاء الاصطناعي، فعلى الرغم من دقة الأدوات المُدعّمة بالذكاء الاصطناعي المُستخدمة في تتبّع واستهداف البياري، فإنّ الوفيات المدنية الناتجة تُسلّط الضوء على العواقب الوخيمة للاعتماد على تقنية لا تزال في مراحلها التطويرية.
مع استمرار إسرائيل في تجربة الذكاء الاصطناعي في العمليات العسكرية، من المرجح أن يشهد العالم مزيدًا من النقاشات حول استخدام هذه التقنيات في الحروب.
وسيعتمد اعتبار هذه الأدوات في نهاية المطاف أداةً إيجابيةً أم سلبيةً على كيفية تطويرها ونشرها وتنظيمها في النزاعات المستقبلية.