تقرير يكشف كيف لجأت إسرائيل لتطبيق الذكاء الاصطناعي لتحديد الفلسطينيين المطلوب إغتيالهم
تاريخ النشر: 5th, April 2024 GMT
استخدمت إسرائيل تطبيقا للذكاء الاصطناعي لديه قاعدة بيانات صنفت 37 ألفاً، هدفاً محتملاً، أنهم على صلة بحركة «حماس»، وفقاً لمصادر في الاستخبارات.
وأوضحت المصادر الاستخباراتية، وفقاً لصحيفة«الغارديان» البريطانية، أنه بالإضافة لاستخدام إسرائيل نظام الذكاء الاصطناعي الذي يطلق عليه اسم «لافندر»، فإن المسؤولين العسكريين الإسرائيليين سمحوا بقتل عدد كبير من المدنيين الفلسطينيين، خاصة خلال الأسابيع الأولى من الحرب.
تستخدم إسرائيل العديد من أنظمة الذكاء الاصطناعي القوية في حربها مع «حماس» لتدخل فصلاً جديداً من الحروب المتقدمة، ما يثير تساؤلات حول قانونية وأخلاقية استخدام هذه الأنظمة، وأيضاً عن تحول العلاقة بين العسكريين والآلات، وفقا للصحيفة البريطانية.
ويقول أحد ضباط الاستخبارات الذي عمل على نظام «لافندر»: «وفقاً لذاكرتي، فإن هذا الأمر غير مسبوق»، مضيفاً: «نحن نثق بالماكينات الآلية أكثر من الجنود الحزانى، فكل واحد فينا، بمن فيهم أنا، فقدنا أشخاصاً في هجوم 7 أكتوبر (تشرين الأول)، بينما تقوم الآلة بهذه الأمور ببرود».
أدلى 6 ضباط على صلة بنظام الذكاء الاصطناعي «لافندر» لتحديد أهداف من حركتي «حماس» و«الجهاد الإسلامي» بتصريحات للصحافي يوفال إبراهام، وحصلت صحيفة «الغارديان» على نسخة مسبقة منها.
الضباط الستة أكدوا أن «لافندر» أدى دوراً مركزياً في الحرب، عن طريق معالجة البيانات لتحديد أعضاء حركتي «حماس» و«الجهاد الإسلامي» لاستهدافهم.
وأشاروا إلى أن «لافندر» حدد، في الفترة الأولى من الحرب، نحو 37 ألف هدف مرتبطين بالحركتين.
وطورت وحدة 8200 نظام «لافندر»، وهي وحدة نخبة في الجيش الإسرائيلي على غرار وكالة الأمن القومي الأميركية.
وقال مصدران إنه في الأسابيع الأولى للحرب أعطوا الإذن بقتل نحو 15 أو 20 شخصاً مدنياً بينهم مقاتل من المستويات العسكرية الأدنى، وكان الهجوم يتم باستخدام ما يطلق عليه «القنابل الغبية»، وهي قنابل غير موجهة تقوم بنسف المنزل بالكامل بكل من فيه.
وقال مصدر استخباراتي: «لن نقوم باستخدام قنابل ذكية ضد مقاتل غير مهم؛ لأنها غالية جداً، ولدينا نقص بها».وفقاً لخبراء عسكريين، فإن إسرائيل تستخدم القنابل الغبية لتسوية منازل آلاف الفلسطينيين بالأرض بمساعدة الذكاء الاصطناعي، ما يفسر عدد الضحايا الكبير للحرب.
ووصف بيان للجيش الإسرائيلي نظام «لافندر» بوصفه قاعدة بيانات تستخدم لـ«جمع معلومات استخباراتية مختلفة لإنتاج معلومات من عدة مستويات عن العمليات العسكرية لـ(الإرهابيين)، وليس قائمة مؤكدة بأسماء المقاتلين لاستهدافهم».
وتابع البيان: «الجيش الإسرائيلي لا يستخدم أنظمة الذكاء الاصطناعي لتحديد (الإرهابيين) أو لتحديد هل هذا الشخص (إرهابي).
أنظمة المعلومات هي بالكاد أدوات يستخدمها المحللون في عملية تحديد الأهداف». جنود إسرائيليون يتابعون لقطات توفرها طائرة استطلاع في أثناء المعارك في غزة (موقع الجيش الإسرائيلي)
وقالت مصادر لـ«الغارديان» إن «لافندر» أنشأ قاعدة بيانات من آلاف الأسماء يعتقد أنهم من مقاتلين في المراتب الأدنى من السلم العسكري، واستخدم إلى جانب نظام آخر يقوم على تحديد المباني والمنشآت لقصفها يدعى «جوسبيل».
وأضافت المصادر: «في مرحلة لاحقة، وسعت الأنظمة عملها وأصبحت تضيف للأهداف أيضاً أفراد الإغاثة، وضباط الشرطة، وهي أهداف لا يفضل قصفها. رغم أنهم يساعدون حكومة (حماس) لكنهم لا يمثلون خطراً على جنودنا».
وتابع: «لم نكن مهتمين بقصف عناصر (حماس) في المنشآت العسكرية أو في أثناء العمليات، بل كان من الأسهل استهدافهم في منازلهم. هذا النظام مصمم لذلك». ويشير أحد المصادر إلى أنه خلال الأسابيع الأولى للحرب كان من الممكن إعطاء الإذن بقتل عنصر مقاتل غير قيادي حتى إذا مات معه 15 شخصاً آخرين، لكنه يؤكد أن التقديرات الخاصة بمقتل مدنيين ضمن القصف على عنصر مقاتل لم تكن دقيقة، ولم يكن من الممكن التأكد بشكل دقيق من عدد المدنيين في المبنى.
وأفاد مصدر استخباراتي آخر بأنه في الآونة الأخيرةانخفض معدل «الأضرار الجانبية» المسموح به، مشيراً إلى أنه في مرحلة معينة من الحرب كان يمكن السماح بقصف يتضمن 20 شخصاً مدنياً في العملية الواحدة، بغض النظر عن رتبة أو أهمية الشخص المستهدف أو عمره
المصدر: مأرب برس
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي قادر على الخداع
تابع أحدث الأخبار عبر تطبيق
أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية أنثروبيك أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين وإبداء وجهات نظر مختلفة خلال تدريبها وفقا لما نشرته مجلة تك كرانش المتخصصة فى هذا المجال .
كشف فريق البحث إنه لا يوجد سبب للشعور بالفزع حاليا في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
ولهذا يجب النظر إلى تلك النتائج كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة بعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة.
تمت الدراسة بالتعاون مع مؤسسة ريد وود ريسيرش لأبحاث الذكاء الاصطناعي وتناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة لا يريد هوالقيام بها.
كما أن لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ ، فهي ببساطة آلات إحصائية وبعد تدريبها على العديد من الأمثلة تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة إلى من في رسالة بريد إلكتروني قبل عبارة قد يهمك الأمر.
وفى أثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة بما في ذلك النموذج "كلاود3 أوبس" التابع لشركة "أنثروبيك" والتي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة وهو تضارب واضح في المبادئ كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي ورقة ملاحظات .
ويمكنه استخدامها لتدوين أفكاره خطوة بخطوة وبحسب الباحثين فحاول "كلاود3 أوبوس" التلاعب بالردود لتقديم انحياز زائف في 12% من المرات.