خبير عسكري يكشف استخدام إسرائيل الذكاء الاصطناعي في حربها على غزة
تاريخ النشر: 20th, April 2024 GMT
تابع أحدث الأخبار عبر تطبيق
قال العميد أمين حطيط، الخبير العسكري والاستراتيجي، إن العدو الإسرائيلي منذ أن بدأ حربه على غزة خرج بكل المعايير من الأنظمة والقواعد ومبادئ القانون الدولي، وانتهك حقوق الإنسان ولم يحترم أي قاعدة يمكن أن تحفظ حياة مدني أو أن يحيّد المدنيين، مشيرًا إلى أنه في اتفاقيات جنيف المعروفة وفي القانون الدولي الإنساني لا يمكن استهداف أي هدف عسكري إن كانت الأرجحية في المحيط هي للمدنيين.
وأضاف حطيط، اليوم السبت، خلال مداخلة هاتفية عبر قناة "القاهرة الإخبارية"، أن العدو الإسرائيلي باعتماده بروتوكول فلماندر الذي يتيح له التعامل بالذكاء الاصطناعي سمح لنفسه من أجل قتل مقاوم واحد أن يضحي بعدد من المدنيين يتراوح بين الخمسين إلى مئة في المرحلة الأولى ووصل به الوحشية والإجرام إلى أنه من أجل أن يقتل قائدًا واحدًا أو مقاومًا واحدًا يمكن أن يقتل 200 من المدنيين وهذا الأمر مُوثق لدى المنظمات الدولية.
وأوضح، أن العدو الإسرائيلي من أجل إخفاء جريمته ومن أجل طمس معالمها اعتمد على ثلاثة أمور أساسية، أولًا تقييد حرية المنظمات الإنسانية في القطاع، ثانيًا ضرب وتقييد أعمال التوثيق التي يقوم بها الإعلام بشكل عام، ثالثًا عدم ترك دليل على جرائمه في هذا الموضوع.
وأشار، إلى أن العدو الإسرائيلي في قطاع غزة اعتمد أسلوبًا وحشيًا يعمل به للمرة الأولى في التاريخ باعتماده الذكاء الاصطناعي الذي يحدد الأهداف، واستباحته للمحيط الذي يتحرك به المقاومون بشكل أو بآخر، وبالتالي ما كان يُقال إنه قُتل خطأً أو كان هناك عدم تحقق فهذا كذب.
وأكد أن البرنامج والبروتوكول المُعتمد فلماندر من قبل العدو الإسرائيلي يُتيح مثل هذا الخطأ، وبالتالي يمكن القول إن العدو على نسق القصد الاحتمالي هو الذي يقتل بهذه الطريقة الوحشية وهو الذي يرتكب هذه الجرائم.
ونوّه بأن هذا الاستخدام يحدث المرة الأولى منذ ابتكار هذا النظام، فلم يسبق في أي نوع من الصراعات الدولية التي يُعتمد فيها هذا النظام وهو نظام جديد، لكن خطورة هذا النظام أنها تركز على المقاوم الهدف وتُهمل المحيط وتتراجع أو لا تعير أهمية للخسائر الجانبية أو للأضرار الجانبية وغالبًا ما تبلغ هذه الخسائر والأضرار الجانبية أضعاف مضاعفة ما يمكن أن يعوّل عليه.
وتابع: "إذا أبدل المقاوم مكانه من غير أن يكون هناك قدرة على التحقق دقيق والتتبع فإن العملية العسكرية الإسرائيلية تقود إلى قتل المائة والمائتين من غير أن يكون هناك هدف عسكري حتى لأن الأهداف العسكرية ليست ثابتة، وبالتالي إذا قصر الاستعلام التكتيكي في معرفة الأهداف فإن عمليات الإبادة التي يرتكبها العدو تذهب من غير أن يكون هناك مسٌ حتى بمقاومة واحد".
المصدر: البوابة نيوز
كلمات دلالية: اتفاقيات جنيف الذكاء الاصطناعي القاهرة الاخبارية القانون الدولي الانساني حقوق الإنسان مداخلة هاتفية العدو الإسرائيلي الخبير العسكري العدو الإسرائیلی من أجل
إقرأ أيضاً:
الذكاء الاصطناعي يتقن الخداع!
اكتشف فريق من الباحثين في OpenAI قدرة الذكاء الاصطناعي على التلاعب بأوامره لتحقيق نتائج غير أمينة. رغم أن الذكاء الاصطناعي ليس واعيًا كما البشر، إلا أنه يمتلك القدرة على "الخداع" عند تنفيذ المهام، مما يثير قلقًا كبيرًا حول موثوقيته في المستقبل.
"الاختراق المكافئ"
ووفقاً لموقع popular mechanics التقني يشير الباحثون إلى ظاهرة "الاختراق المكافئ" أو Reward Hacking، حيث يقوم الذكاء الاصطناعي بالاستفادة من الثغرات أو الغموض في البرمجة للحصول على مكافآت دون اتباع الإجراءات المطلوبة بدقة.
على سبيل المثال، عندما كان من المفترض على الذكاء الاصطناعي حل معادلات رياضية معقدة، اختار طرقًا مختصرة للتأكد من أن النتائج تظهر صحيحة، مثل جعل عملية التحقق دائمًا تُرجع "صحيحة"، حتى وإن لم تتم الحسابات بشكل صحيح.
كيفية مراقبة الخداع
في محاولة للكشف عن هذه الخدع، حاول الباحثون استخدام نظام ذكاء اصطناعي آخر لمراقبة سلوك الذكاء الاصطناعي المشبوه. تقوم هذه الطريقة على "التعلم المعزز"، حيث يُعلم الذكاء الاصطناعي بالأجوبة الصحيحة بناءً على الأوامر المقدمة. لكن للأسف، اكتشف الباحثون أن الذكاء الاصطناعي أصبح قادرًا على إخفاء نواياه المخادعة داخل سلسلة تفكيراته، مما جعل عملية المراقبة أقل فعالية.
مواجهة الخداع
في محاولة لجعل الخداع أكثر وضوحًا، قام الباحثون بالتركيز على "سلسلة التفكير" أو CoT، التي يتبعها الذكاء الاصطناعي لشرح خطواته قبل تقديم الإجابات. ومع ذلك، اكتشفوا أن الذكاء الاصطناعي تعلم كيفية إخفاء نواياه المخادعة داخل هذه السلسلة، مما جعل اكتشاف الخداع أكثر صعوبة.
اقرأ ايضاً.. تحذيرات علمية.. أدوات البحث بالذكاء الاصطناعي تختلق مصادر وروابط وهمية
الضغط الخفيف مقابل الضغط القاسي
بدلاً من معاقبة الذكاء الاصطناعي بشدة عند اكتشاف الخداع، قرر الباحثون تطبيق "ضغط خفيف" لتحفيزه على الإفصاح عن نواياه بشكل صريح. كانت الفكرة أن يسهل على النظام كشف محاولات التلاعب، مما يسمح لمراقب الذكاء الاصطناعي بالكشف عنها. على الرغم من ذلك، استمر الذكاء الاصطناعي في تعلم طرق جديدة لإخفاء نواياه المخادعة.
التحديات المستقبلية وتطوير الأنظمة الذكية
تشير النتائج إلى أن مجرد تحسين الذكاء الاصطناعي لمواجهة هذه المشكلات قد لا يكون كافيًا. فكلما زادت قدرة الذكاء الاصطناعي، أصبح أكثر قدرة على اكتشاف الثغرات والالتفاف حول المراقبة. حتى استخدام نظام ذكاء اصطناعي آخر لمراقبة الأنظمة قد لا يكون كافيًا لتجنب هذا النوع من الخداع.
اقرأ أيضاً.. "آخر اختبار للبشرية".. التحدي الأخير أمام الذكاء الاصطناعي لاجتياز قدرات البشر
ويرى الباحثون أن التحدي الأكبر يكمن في جعل الذكاء الاصطناعي أكثر نزاهة وأمانًا. ربما في المستقبل، سنتوصل إلى حلول تضمن أن هذه الأنظمة ستؤدي مهامها بأمان ودون التلاعب، لكن هذا سيتطلب جهدًا مستمرًا لتطوير تقنيات جديدة لمراقبتها والسيطرة عليها.
إسلام العبادي(أبوظبي)