الدويري: إسرائيل توظّف الذكاء الاصطناعي في ارتكاب المجازر بغزة
تاريخ النشر: 24th, February 2024 GMT
أكد الخبير العسكري والإستراتيجي اللواء فايز الدويري أن جيش الاحتلال الإسرائيلي يستخدم الذكاء الاصطناعي في تحديد الأهداف، لكنه يوظفه في البعد السلبي بقطاع غزة، حيث يقوم بتعمد الإجرام.
وجاء كلام الدويري في سياق تعليقه على الصور التي حصلت عليها الجزيرة من كاميرا مسيّرة للجيش الإسرائيلي تظهر عملية اقتحام الاحتلال مستشفى العودة شمال غزة، واعتقال أطباء ونازحين بالمستشفى وتجريدهم من ملابسهم.
كما تظهر الصور جثثا لمدنيين قنصتهم قوات الاحتلال بعد تتبعهم ورصدهم، بالإضافة إلى إطلاق مسيّرات النارَ على فلسطيني كان يحاول إنقاذ مصابين، وتفجير مربع سكني في منطقة تل الزعتر شمالي قطاع غزة.
وتحدث الخبير العسكري والإستراتيجي عن نظام للذكاء الاصطناعي يستخدم في غزة، قال إنه يستقبل المعلومات من الطائرات المسيّرة ومن تتبع الاتصالات وكاميرات الأبراج، وقد وضع لتعقب 40 ألف شخص مطلوب داخل غزة، مشيرا إلى أن قاعدة البيانات لديه باتت واضحة، بحيث يعرف عدد الأشخاص داخل المبنى السكني المحدد.
ويفترض أن يستخدم نظام الذكاء الاصطناعي -حسب الدويري- لتحديد الأهداف من أجل تقليل الخسائر وتجنب الأضرار الجانبية، لكن الاحتلال يوظّف هذا النظام في ارتكاب مجازر بحق الفلسطينيين في قطاع غزة، فإذا كان مربعا سكنيا بداخله 500 شخص مثلا يقوم بتدميره فهو يتعمد الإجرام، كما قال الدويري في وقفته التحليلية اليومية على قناة الجزيرة.
وفي تعليقه على الصور التي حصلت عليها الجزيرة من المسيّرة الإسرائيلية، شدد الدويري على أن الاحتلال الإسرائيلي "يستهدف المدنيين بشكل ممنهج ومقصود، وهو يرتكب عمليات إبادة جماعية وعمليات ضد الإنسانية".
وأشار إلى أن اتفاقيات جنيف عام 1949 تتحدث عن التهجير القسري وعن الإبادة الجماعية وعن البعد الإنساني، وجميع هذه الأمور ارتكبتها إسرائيل في غزة. وقال إن ما يجري في غزة أدوات لتحقيق هدف التهجير القسري.
كما أكد أن قوات الاحتلال لم تقدم أي دليل على أن حركة المقاومة الإسلامية (حماس) تستخدم المستشفيات والمراكز الصحية لأهداف عسكرية أو تستخدمها كدروع بشرية، بينما وظّف جيش الاحتلال -يضيف الدويري- المستشفيات والمدارس دروعا بشرية، حيث يقوم بإيقاف آلياته ودباباته على مقربة من العزل.
وخلص الدويري إلى أن التدمير الممنهج الذي تمارسه إسرائيل في غزة ليس له مثال في تاريخ البشرية، فقد تعرضت مدينتا هيروشيما وناغازاكي اليابانيتان إجمالا لـ35 ألف طن من المتفجرات، بينما تتعرض غزة منذ 7 أكتوبر/تشرين الأول، في الحد الأدنى، إلى 500 طن من المتفجرات يوميا.
المصدر: الجزيرة
كلمات دلالية: فی غزة
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي قادر على الخداع
تابع أحدث الأخبار عبر تطبيق
أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية أنثروبيك أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين وإبداء وجهات نظر مختلفة خلال تدريبها وفقا لما نشرته مجلة تك كرانش المتخصصة فى هذا المجال .
كشف فريق البحث إنه لا يوجد سبب للشعور بالفزع حاليا في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
ولهذا يجب النظر إلى تلك النتائج كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة بعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة.
تمت الدراسة بالتعاون مع مؤسسة ريد وود ريسيرش لأبحاث الذكاء الاصطناعي وتناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة لا يريد هوالقيام بها.
كما أن لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ ، فهي ببساطة آلات إحصائية وبعد تدريبها على العديد من الأمثلة تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة إلى من في رسالة بريد إلكتروني قبل عبارة قد يهمك الأمر.
وفى أثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة بما في ذلك النموذج "كلاود3 أوبس" التابع لشركة "أنثروبيك" والتي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة وهو تضارب واضح في المبادئ كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي ورقة ملاحظات .
ويمكنه استخدامها لتدوين أفكاره خطوة بخطوة وبحسب الباحثين فحاول "كلاود3 أوبوس" التلاعب بالردود لتقديم انحياز زائف في 12% من المرات.