إسرائيل وظفت الذكاء الاصطناعي لتحديد 37 ألف هدف بغزة
تاريخ النشر: 4th, April 2024 GMT
نقلت صحيفة الغارديان البريطانية عن مصادر استخباراتية مطلعة أن إسرائيل اعتمدت في قصفها لغزة على قاعدة بيانات مدعومة بالذكاء الاصطناعي حددت 37 ألف هدف محتمل.
وأشارت الصحيفة إلى استخدام إسرائيل لنظام الذكاء الاصطناعي المسمى "لافندر" الذي سمح للمسؤولين العسكريين الإسرائيليين بقتل أعداد كبيرة من المدنيين الفلسطينيين، لا سيما خلال الأسابيع والأشهر الأولى من الحرب.
ورصدت الصحيفة شهادات استخباراتية عن التجارب المباشرة لمسؤولي المخابرات الإسرائيلية في استخدام أنظمة التعلم الآلي للمساعدة في تحديد الأهداف خلال العدوان على غزة المستمر منذ السابع أكتوبر/تشرين الأول الماضي.
وأكدت الشهادات أن "لافندر" لعب دورا مركزيا في الحرب، حيث قام بمعالجة كميات كبيرة من البيانات لتحديد أهداف محتملة من "صغار المقاتلين" لاستهدافهم بسرعة، وأوضح 4 ممن أدلوا بشهادتهم أنه في مرحلة مبكرة من الحرب، وضع "لافندر" قائمة تضم 37 ألف رجل فلسطيني زعم انتماءهم لحركة المقاومة الإسلامية (حماس) أو حركة الجهاد الإسلامي.
وأوضحت الصحيفة أن نظام "لافندر" تم تطويره من طرف قسم استخبارات النخبة في جيش الدفاع الإسرائيلي الوحدة 8200.
وذكرت أن المعلومات التي وردت في الشهادات تشير إلى تضارب في حجم "الخسائر الجانبية" المسموح بها عند مهاجمة أي هدف، وتحدثت عن "هامش سماح" قد يصل إلى قتل 20 مدنيا مقابل الإطاحة بالهدف.
وأوضحت أن الهجمات التي نفذت بعد تحديد الأهداف من طرف "لافندر" استخدمت فيها ذخائر غير موجهة تعرف باسم "القنابل الغبية"، مما أدى إلى تدمير منازل بأكملها وقتل جميع ساكنيها.
وقال أحد ضباط المخابرات "لا تريد أن تضيع قنابل باهظة الثمن على أشخاص غير مهمين، فهي مكلفة للغاية بالنسبة للبلاد، وهناك نقص في (تلك القنابل)".
وأكدت الغارديان أن استخدام تقنيات الذكاء الاصطناعي يثير مجموعة من الأسئلة القانونية والأخلاقية، ويحدث تحولا في العلاقة بين الأفراد العسكريين والآلات.
وأوضحت أن خبراء القانون الإنساني الدولي الذين تحدثوا للصحيفة عبروا عن قلقهم إزاء الحديث عن قبول الجيش الإسرائيلي بنسب أضرار جانبية تصل إلى 20 مدنيا، بالنسبة للمسلحين ذوي الرتب الأدنى. وقالوا إن الجيوش يجب أن تقيم التناسب في كل ضربة على حدة.
في المقابل، ذكر بيان للجيش الإسرائيلي أنه لا يتم استخدام نظام ذكاء اصطناعي لتحديد هوية "الإرهابيين"، وأكد أن تلك الأنظمة "مجرد أدوات للمحللين في عملية تحديد الأهداف". وقال الجيش الإسرائيلي إن عملياته نفذت وفقا لقواعد التناسب بموجب القانون الدولي.
المصدر: الجزيرة
كلمات دلالية: رمضان 1445 هـ ترجمات حريات
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي قادر على الخداع
تابع أحدث الأخبار عبر تطبيق
أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية أنثروبيك أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين وإبداء وجهات نظر مختلفة خلال تدريبها وفقا لما نشرته مجلة تك كرانش المتخصصة فى هذا المجال .
كشف فريق البحث إنه لا يوجد سبب للشعور بالفزع حاليا في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
ولهذا يجب النظر إلى تلك النتائج كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة بعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة.
تمت الدراسة بالتعاون مع مؤسسة ريد وود ريسيرش لأبحاث الذكاء الاصطناعي وتناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة لا يريد هوالقيام بها.
كما أن لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ ، فهي ببساطة آلات إحصائية وبعد تدريبها على العديد من الأمثلة تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة إلى من في رسالة بريد إلكتروني قبل عبارة قد يهمك الأمر.
وفى أثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة بما في ذلك النموذج "كلاود3 أوبس" التابع لشركة "أنثروبيك" والتي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة وهو تضارب واضح في المبادئ كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي ورقة ملاحظات .
ويمكنه استخدامها لتدوين أفكاره خطوة بخطوة وبحسب الباحثين فحاول "كلاود3 أوبوس" التلاعب بالردود لتقديم انحياز زائف في 12% من المرات.