تؤكد التقارير الصادمة التي تتوالى من غزة أن جيش الاحتلال الإسرائيلي يستخدم تكنولوجيا الذكاء الاصطناعي في ارتكاب مجازر وعمليات إبادة ممنهجة في مخالفة لجميع المواثيق والأعراف، ويشكل هذا منعطفا خطيرا في مجال حقوق الإنسان واستخدام التكنولوجيا في القتل، وتكشف أيضا لغز اختفاء عائلات بأكملها من السجل المدني.

استخدام التكنولوجيا للقتل

كشف موقعا "+972" ولوكال كول (Local Call) الإسرائيليان  كيف استخدم الجيش الإسرائيلي برنامج ذكاء اصطناعي يعرف باسم لافندر لتطوير "قائمة قتل" في غزة تضم ما يصل إلى 37 ألف فلسطيني تم استهدافهم بالاغتيال دون أن يكون هناك أي إشراف بشري يذكر للتحقق من دقة المعلومات.

وليس نظام لافندر فحسب الذي استخدم الذكاء الاصطناعي بل كان هناك نظام ثانٍ يعرف باسم "أين أبي؟" (Where’s Daddy) أخطر من لافندر وصمم  لمساعدة إسرائيل على استهداف الأفراد عندما يكونون في المنزل ليلا مع عائلاتهم.

أدى استخدام نظام "أين أبي؟"، بالإضافة إلى سياسة القصف "المتسامحة للغاية" في الجيش الإسرائيلي، إلى "إبادة عائلات فلسطينية بأكملها داخل منازلها"، كما يقول يوفال أبراهام، وهو صحفي إسرائيلي كشف القصة بعد أن تحدث مع 6 من ضباط المخابرات الإسرائيلية الذين شاركوا بشكل مباشر في نظام الذكاء الاصطناعي.

واستضافت إيمي غودمان من موقع ديموكراسي ناو (democracynow) أبراهام في مقابلة تحدث من خلالها عن بعض ما وجد في تقريره حول التكنولوجيا المستخدمة في الحرب على غزة، وكيف أن استخدام أنظمة الذكاء الاصطناعي العسكرية تشكل "خطراً على الإنسانية"، وأن "الحرب القائمة على الذكاء الاصطناعي تسمح للناس بالهروب من المساءلة."

فنظام الذكاء الاصطناعي الذي يُعرف باسم "أين أبي؟" مصمم لتعقب الرجال الفلسطينيين. وقد تم تصميمه عمدا لمساعدة إسرائيل على استهداف الأفراد عندما يكونون في منازلهم ليلا مع عائلاتهم كما ذكر إبراهام في المقابلة.

يوفال أبراهام، وهو صحفي إسرائيلي تحدث مع 6 من ضباط المخابرات الإسرائيلية الذين شاركوا  في برنامج "أين أبي؟". (الفرنسية)

وقال أحد ضباط المخابرات لأبراهام: "لم نكن مهتمين بقتل العناصر فقط عندما يكونون في مبنى عسكري أو حين يشاركون في نشاط عسكري. على العكس من ذلك، قصَف الجيش الإسرائيلي بيوتهم دون تردد، كخيار أول. من الأسهل بكثير قصف منزل العائلة. وقالوا إن النظام مصمم للبحث عنهم في هذه المواقف".

يقول يوفال أبراهام حول بحثه عن هذا النظام الذي يعمل بالذكاء الاصطناعي إن الغرض منه، عندما تم تصميمه، هو تمييز الناشطين ذوي الرتب الدنيا في الجناح العسكري لحماس والجهاد الإسلامي.

وبحسب إبراهام كان هذا هو القصد، فإسرائيل قدرت أن هناك ما بين 30 إلى 40 ألفا من نشطاء حماس، وهو عدد كبير جدا. وقد أدركوا أن الطريقة الوحيدة بالنسبة لهم لتحديد هؤلاء الأشخاص هي الاعتماد على الذكاء الاصطناعي. وكان هذا هو المقصود من استخدام "أين أبي؟".

ويتابع أبراهام أن ما أخبرتني به المصادر هو أنه بعد السابع من أكتوبر/تشرين الأول، اتخذ الجيش قرارا بالموافقة على أن يتم السماح باستهداف كل هؤلاء الآلاف من الأشخاص داخل منازلهم، مما لا يعني قتلهم فقط ولكن قتل كل من معهم في المبنى بما فيهم الأطفال والعائلات.

وقد فهموا أنه من أجل محاولة القيام بذلك، سيتعين عليهم الاعتماد على آلة الذكاء الاصطناعي مع الحد الأدنى من الإشراف البشري. يقول أبراهام إن أحد المصادر قال إنه شعر أن ذلك كان بمثابة ختم بالموافقة المسبقة على قرارات الآلة.

كيف يعمل "أين أبي؟"

يشرح أبراهام كيفية عمل برنامج "أين أبي؟" والذي يقوم بمسح معلومات عن 90% من سكان غزة على الأرجح. لذلك نحن نتحدث عن أكثر من مليون شخص. ويمنح كل فرد تقييما يتراوح بين واحد إلى 100، وهو تقييم يستند على طريقة تفكير الآلة وهو عبارة عن احتمالات قائمة على معلومات صغيرة تتجمع لتكون احتمالية بأن ذلك الفرد هو عضو في الأجنحة العسكرية لحماس أو الجهاد الإسلامي.

ويقول أبراهام إن مصادره أخبروه أن الجيش كان يعلم أن ما يقرب من 10٪ من الأشخاص الذين حددتهم الآلة على أنهم سيُقتلون ليسوا من مقاتلي حماس. ولم يكونوا كذلك، فبعضهم كان على علاقة بعيدة بحماس، والبعض الآخر لم يكن له أي صلة على الإطلاق بحماس.

فعلى سبيل المثال قال أحد المصادر إن الآلة كانت تجلب أشخاصا لديهم نفس الاسم واللقب وتصنفهم كعنصر في حماس، أوالأشخاص الذين لديهم ملفات تعريف اتصالات مماثلة.

مثلا، يمكن أن يكون هؤلاء عمال الدفاع المدني، أوضباط شرطة في غزة، وقال أحد المصادر إنه قضى 20 ثانية من وقته لكل هدف للتأكد منه قبل أن يأذن بقصف مقاتل حماس ذي الرتبة المنخفضة -وغالباً ما كان من الممكن أن يكون مدنيا- مما أسفر عن مقتل هؤلاء الأشخاص داخل منازلهم، بحسب أبراهام.

ويقول أبراهام إن الطريقة التي تم بها تصميم النظام هي أن هناك مفهوما في أنظمة المراقبة الجماعية يسمى "الارتباط".

فعندما تريد أتمتة -الأتمتة هي التشغيل الآلي- هذه الأنظمة، فأنت تريد أن تقوم هذه الآلة بعمل المهام بسرعة كبيرة دون النظر لاعتبارات أخرى، ولهذا تحتاج لمعرف ارتباط  معين وفي هذه الحالة، المعرف هو "العلاقة مع حماس" وجهاز حاسوب وخوارزمية قادرة بسرعة كبيرة على ربط هذا المعرف بأشياء أخرى بحسب أبراهام.

هذا النظام يتغلب على مشاكل العنصر البشري التي تحتاج أن تتحقق في هويات الأهداف للتأكد قبل ضربها حتى لا يتم ملاحقتهم كمجرمي حرب في حالة حدوث خطأ في تعريف الهدف، لذلك فالأسهل أن تجعل الآلة المسؤولة عن هذه الأخطاء.

وللتأكيد على أن هذه العقلية هي وراء استخدام هذا النظام ذكر أبراهام حادثة ألقى فيها مسؤول عسكري إسرائيلي رفيع المستوى، وهو رئيس مركز الذكاء الاصطناعي التابع للوحدة 8200، محاضرة في جامعة تل أبيب العام الماضي، حيث قال في تلك المحاضرة: "إن نظام الذكاء الاصطناعي الذي استخدمه الجيش الإسرائيلي في عام 2021 للعثور على الإرهابيين، يساعد الجيش على الخروج من عنق الزجاجة" والمراد بعنق الزجاجة هنا كمية المعلومات التي تحتاج التأكد منها والوقت الذي يحتاجه متخذ القرار البشرى لإصدار أمر القتل.

Yossi Sariel and his book pic.twitter.com/cKmWtS77EO

— Suppressed Nws. (@SuppressedNws) April 5, 2024

هل يمكن اعتبار هذه التكنولوجيا مسؤولة عن ظاهرة محو العائلات من السجل المدني؟

يعتقد أبراهام أن الاعتماد على الذكاء الاصطناعي هنا لتحديد تلك الأهداف، والطريقة المميتة التي تحدث بها الضباط عن كيفية استخدامهم للآلة، يمكن أن يكون جزءا من أسباب أنه بعد 6 أسابيع من السابع من أكتوبر/تشرين الأول، كانت إحدى السمات الرئيسية للحرب على غزة هي ظاهرة إبادة عائلات فلسطينية بأكملها داخل منازلها.

ويقول أبراهام في لقائه مع أيمي: "إذا نظرت إلى إحصائيات الأمم المتحدة، فإن أكثر من 50% من الضحايا، أكثر من 6 آلاف شخص في ذلك الوقت، كانوا عبارة عن مجموعة عائلات صغيرة قتلوا في قصف مركز، إنه شكل من أشكال تدمير وحدة الأسرة. وأعتقد أن تلك الآلة وطريقة استخدامها أدت إلى ذلك وقد اعتبروا "أضرارا جانبية".

كم يجب أن يقتل من عوائل من تصنفهم الآلة بمنتسبي حماس والجهاد الإسلامي؟

يقول يوفال أبراهام ردا على سؤال حول طريقة استهداف منتسبي حماس والجهاد:" ما أخبرتني به المصادر هو أنه خلال تلك الأسابيع الأولى بعد شهر أكتوبر/تشرين الأول، بالنسبة للمسلحين ذوي الرتب المنخفضة في حماس، والذين تم تمييز الكثير منهم بعلامة خاصة تصنفهم على أنهم "المسلحون المزعومون" الذين تم تمييزهم بواسطة الآلة فإن أقسام القانون الدولي بالجيش أخبرت ضباط المخابرات، أنه مقابل كل هدف منخفض الرتبة تحدده الآلة، يسمح لهم بقتل ما يصل إلى 20 مدنيا، مقابل أي ناشط في حماس، وذلك بغض النظر عن رتبته أو أهميته".

وقال أحد المصادر لأبراهام إن هناك أيضا قاصرين تم وضع علامة عليهم –ليس الكثير منهم، لكنه قال إن هذا احتمال، وإنه لا يوجد حد أقصى للعمر. وقال مصدر آخر إن الحد الأقصى يصل إلى 15 مدنيا للمسلحين ذوي الرتب المنخفضة.

أما بالنسبة لكبار قادة حماس، مثل قادة الألوية أو الفرق أو الكتائب فقد كانت الأرقام، ولأول مرة في تاريخ الجيش الإسرائيلي، في خانة الـ3 أرقام، وفقا للمصادر.

لذلك، على سبيل المثال، أيمن نوفل، الذي كان قائد اللواء المركزي في حماس، قال مصدر شارك في الضربة ضد ذلك الشخص إن الجيش سمح بقتل 300 مدني فلسطيني إلى جانب ذلك الشخص.

في مقابل قتل أيمن نوفل القائد في حماس سمح الجيش الإسرائيلي بقتل 300 مدني فلسطيني (مواقع التواصل الإجتماعي)

ويقول أبراهام إنهم في موقع "+972" ولوكال كول تحدثوا مع فلسطينيين كانوا شهودا على تلك الغارة، وتحدث الشهود عن 4 مبانٍ سكنية كبيرة جدا تم قصفها في ذلك اليوم، وقصفت شقق بأكملها مليئة بالعائلات.

ويأكد أبراهام لموقع "ديموكراسي ناو" أن المصدر أكد له أن عدد المدنيين الـ300 كان معروفا مسبقا للجيش الإسرائيلي، وقال أحد المصادر له إنه خلال تلك الأسابيع في البداية، لم يكن مبدأ التناسب بين القيمة لعنصر حماس مع الأضرار الجانبية، كما يسمونها بموجب القانون الدولي،"موجودًا".

هل الجيش الأميركي أو التكنولوجيا الأميركية لديهما دور في هذه الأنظمة المصممة للقتل؟

يقول يوفال أبراهام في إجابته عنما إذا كان للجيش الأميركي أو التكنولوجيا الأميركية يد في هذه المجازر: "لا أعرف. وهناك بعض المعلومات التي لا أستطيع مشاركتها بشكل كامل، مثل هذه اللحظة. أنا أحقق، كما تعلمون، فيمن يشارك في تطوير هذه الأنظمة".

ويتابع أبراهام:"ما يمكنني قوله لكم هو، بناء على الخبرة السابقة لحرب 2014 وحرب 2021، عندما تنتهي الحروب، يتم بعد ذلك بيع هذه الأنظمة للجيوش في جميع أنحاء العالم. وأعتقد، بغض النظر عن النتائج والعواقب المروعة لهذه الأنظمة في غزة، أعتقد حقا أن هناك خطرا على الإنسانية".

ويضيف: "فمثل هذه الحرب القائمة على الذكاء الاصطناعي تسمح للناس بالهروب من المساءلة. إنه يسمح بتحديد أهداف، في الواقع، على نطاق واسع – كما تعلمون، تم تحديد الآلاف، 37 ألف شخص لاحتمال اغتيالهم. وهو يسمح بفعل ذلك والحفاظ على نوع من حدود القانون الدولي، لأن لديك آلة تجعلك هدفا مع أضرار جانبية مقبولة لكن هذا يفقد القانون كل معنى".

كيفية تفاعل أنظمة الذكاء الاصطناعي مع الطائرات الهجومية المسيرة؟

يوفال أبراهام تحدث عن تكامل الأنظمة والأسلحة العسكرية مع الذكاء الاصطناعي: "كما تعلمون، لا أستطيع أن أتحدث عن كل شيء، لأننا نوعا ما –علينا دائما أن نفكر في الرقابة العسكرية في إسرائيل. كصحفيين إسرائيليين، نحن ملتزمون جدًا بذلك".

وتابع: "لكن الأنظمة تتكامل مع بعضها. وكما تعلمون، إذا تم وضع علامة على شخص ما بأنه سيُقتل بواسطة الذكاء الاصطناعي، فيمكن أن يُقتل هذا الشخص بواسطة طائرة حربية، ويمكن أن يُقتل بواسطة طائرة مسيرة، ويمكن أن يقتل بواسطة دبابة على الأرض. هناك نوع من سياسة تبادل المعلومات الاستخبارية بين مختلف الوحدات. نعم، وحدات مختلفة ومشغلو أسلحة مختلفون".

إحدى السمات الرئيسية للحرب على غزة هي ظاهرة إبادة عائلات فلسطينية بأكملها داخل منازلها (أسوشيتد برس) " أين أبي؟" تفوق على "الرجل البدين" في الغباء

يظهر التحقيق الذي قام به يوفال أبراهام أن الحرب الجارية في غزة ربما تشكل منعطفا خطيرا في استخدام الذكاء الاصطناعي بشكل غير أخلاقي في الوقت الذي تثار حول هذه التقنية واستخداماتها الكثير من المخاوف عالميا.

إن استخدام هذه التكنولوجيا في حرب غزة كحقل تجارب غير خاضع لسلطة القانون يجب أن يجعل العالم يقف على أرجله، خصوصا أنها تستحضر حادثة إلقاء قنبلة "الرجل البدين" على هيروشيما وناغازاكي في منتصف القرن الماضي والتي تسببت بقتل آلاف اليابانيين دون تمييز.

ومع تشابه أهداف قنبلة "الرجل البدين" الأميركية ونظام "أين أبي؟" الإسرائيلي وهو القتل دون تمييز إلا أن هناك اختلافا واضحا يجعل الجيش الإسرائيلي بحربه على غزة يفوز بجائزة أقذر إبادة جماعية عرفتها البشرية، ويجعل نظام "أين أبي؟" يفوز بجائزة أغبى سلاح عسكري.

فالرجل البدين من اسمه قنبلة غبية لم تستخدم أي تقنية سوى تقنية التدمير العشوائي وإلحاق الضرر بأكبر عدد من المدنيين بغض النظر عن انتماءاتهم، أما "أين أبي؟" ومن اسمِه أيضا فيظهر هدف مخفي قذر يقوم على إلحاق الأذى النفسي واستهداف الأسرة وليس الفرد، وكل ذلك باستخدام الذكاء الاصطناعي الذي من المفترض أن يُستخدم في تحديد أهدافه بدقة أكبر وهو مالم يحصل.

المصدر: الجزيرة

كلمات دلالية: رمضان 1445 هـ ترجمات حريات على الذکاء الاصطناعی الجیش الإسرائیلی ضباط المخابرات هذه الأنظمة وقال أحد فی حماس أن یکون أن هناک على غزة على أن فی هذه الذی ی فی غزة

إقرأ أيضاً:

الذكاء الاصطناعي مجرد وهم.. باحثون يكشفون السبب

تابع أحدث الأخبار عبر تطبيق

في تطور جديد يعيد تقييم فعالية الذكاء الاصطناعي، أعلن باحثون بإحدى شركات التكنولوجيا العملاقة أن الذكاء الاصطناعي، وخصوصًا النماذج اللغوية الكبيرة، يُظهر سلوكًا يُوحي بالذكاء ولكنه في الواقع مجرد وهم، هذه النماذج تُظهر قدرة على الاستجابة والتفاعل مع المستخدمين، إلا أنها تفتقر إلى التفكير المنطقي الحقيقي وفهم السياق العميق.

ووفقا لموقع techxplore أن الباحثون يقولون رغم التقدم الكبير الذي حققته تطبيقات الذكاء الاصطناعي، توضح دراسة باحثي شركة التكنولوجيا أن هذه التقنيات ما زالت بعيدة عن تحقيق ذكاء حقيقي، والنماذج الحالية تعتمد على تقنيات تحليل الأنماط بدلاً من الفهم العميق أو التفكير المنطقي، مما يجعلها أداة مفيدة ولكنها ليست بديلاً عن العقل البشري، ونُشر البحث عبر منصة arXiv preprint.
 

نقاط البحث الأساسية:

• أجريت الدراسة على نماذج لغوية كبيرة، مثل تلك المستخدمة في تطبيقات الذكاء الاصطناعي الشائعة.

• أظهرت النتائج أن هذه النماذج لا تفهم الأسئلة المطروحة فهمًا حقيقيًا، بل تعتمد على بنية الجمل والخوارزميات المكتسبة.
 

الفرضية الأساسية للدراسة:

افترض الباحثون أن الذكاء الحقيقي، سواء للكائنات الحية أو الآلات، يتطلب القدرة على:

1. التمييز بين المعلومات ذات الصلة وغير ذات الصلة: مثال ذلك، إذا سأل طفل والده عن عدد التفاح في حقيبة تحتوي على تفاح صغير الحجم، يمكن للعقل البشري تجاهل حجم التفاح كعامل غير ذي صلة بالإجابة.

2. إظهار التفكير المنطقي: القدرة على استخلاص الاستنتاجات الصحيحة بناءً على المعطيات المتاحة.

اختبار النماذج اللغوية الكبيرة:

• استخدم الباحثون مئات الأسئلة التي استُخدمت سابقًا لتقييم قدرة النماذج اللغوية.

• أضيفت معلومات غير ذات صلة إلى هذه الأسئلة لقياس قدرة الذكاء الاصطناعي على تجاهلها.

• النتيجة: أدى وجود معلومات زائدة إلى إرباك الذكاء الاصطناعي، مما نتج عنه إجابات خاطئة أو غير منطقية.

نتائج البحث:

1. عدم الفهم الحقيقي للسياق

النماذج اللغوية الكبيرة لا تفهم الأسئلة فهمًا عميقًا. بدلاً من ذلك، تستند إلى التعرف على الأنماط وتوليد إجابات تعتمد على البيانات السابقة.

2. إجابات مضللة

أعطت النماذج إجابات بدت صحيحة ظاهريًا، لكنها عند الفحص الدقيق تبين أنها خاطئة أو غير متسقة مع المنطق.

3. الوهم الذكي

النماذج تظهر وكأنها “تفكر” أو “تشعر”، لكنها في الواقع تعتمد على خوارزميات تعليم الآلة للتفاعل مع المستخدم، دون وجود ذكاء حقيقي أو إدراك.

أمثلة توضيحية من البحث:

سؤال بسيط: عند طرح سؤال على الذكاء الاصطناعي يتضمن معلومات غير ضرورية، غالبًا ما يدمجها في إجابته بدلاً من تجاهلها.

الشعور والإحساس: عند سؤال الذكاء الاصطناعي عن “شعوره” تجاه أمر معين، قد يقدم إجابات تُوحي بأنه يشعر، لكن هذه مجرد خدعة لغوية تعتمد على بيانات التدريب.

دلالات البحث:

• النتائج تعزز وجهة النظر التي ترى أن الذكاء الاصطناعي ليس “ذكاءً” حقيقيًا بالمعنى البشري، بل هو نموذج إحصائي معقد.

• تؤكد الدراسة أن الذكاء الاصطناعي الحالي غير قادر على التفكير المنطقي أو فهم السياق كما يفعل الإنسان.

التحديات المستقبلية:

• تحسين قدرة النماذج اللغوية على الفصل بين المعلومات ذات الصلة وغير ذات الصلة.

• تطوير نماذج ذكاء اصطناعي تفهم السياق بشكل أفضل وتُظهر منطقًا أقرب للإنسان.

• تقليل الاعتماد على الأنماط الإحصائية وزيادة التركيز على التفاعل الديناميكي.

مقالات مشابهة

  • مختص: بشكل كبير جدًا قد يحل الذكاء الاصطناعي محل الحكم في مباريات كرة القدم
  • الجيش الإسرائيلي يزعم اغتيال 5 من قيادات ونشطاء حماس شمال قطاع غزة
  • بيل غيتس يلقي محاضرة عن الذكاء الاصطناعي
  • الذكاء الاصطناعي يساعد في الحفاظ على الحشرات
  • الذكاء الاصطناعي مجرد وهم.. باحثون يكشفون السبب
  • الجيش الإسرائيلي يكشف ما يسببه وجود الأسرى لدى حماس في غزة حتى اليوم
  • الذكاء الاصطناعي يهدد شركات الأزياء
  • رئيس الوزراء: مصر بالتصنيف «أ» دوليا في تطبيقات الذكاء الاصطناعي
  • الجيش الإسرائيلي يعترف بعدم استطاعته السيطرة على قطاع غزة
  • كيف يواجه الذكاء الاصطناعي أزمة نقص الكوادر في الأمن السيبراني؟