مع نظام "حبسورا" قد تصيب وقد تخيب.. إسرائيل تستخدم الذكاء الاصطناعي لتنفيذ "اغتيالات جماعية" في غزة
تاريخ النشر: 5th, December 2023 GMT
وتستعد إسرائيل، التي استخدمت لسنوات عدة التكنولوجيا الذكية لتعزيز قدراتها، لتسويق نظام "حبسورا" أي الإنجيل باللغة العبرية عرضه للبيع عالمياً.
طوّرت تل أبيب نظام ذكاء اصطناعي يدعى "حبسورا" أو "الإنجيل" باللغة العبرية، ويستخدمه الجيش الإسرائيلي لتحديد أهدافه في قطاع غزة بشكل أسرع وأكثر دقة.
النظام المذكور يختلف بشكل جذري عن النظم الاصطناعية المعتادة في مجال الذكاء الاصطناعي التي نتفاعل معها يومياً ونعرفها، والتي تهدف بشكل أساسي إلى مساعدة البشر وتوفير الموارد والمعلومات بأسرع وقت ممكن.
إذ يهدف "حبسورا" إلى تعزيز أهداف إسرائيل في المواجهة مع الفلسطينيين، ويساهم في توفير المزيد من المعلومات حول مواقع أي فرد قد يشكل تهديدًا حقيقيا بالنسبة للدولة العبرية.
وكانت "مجلة 972+" السياسية، وهي وسيلة إعلام إسرائيلية يديرها صحفيون فلسطينيون وإسرائيليون، قد نشرت تقريرا مفصلا عن نظام "حبسورا"، استندت فيه إلى شهادات مجموعة من العسكريين الإسرائيليين السابقين والذين لا يزالون في الخدمة.
وقالت المجلة إنه في إحدى الضربات التي نفذها الجيش الإسرائيلي مستعينا بنظام "حبسورا"، وافقت المخابرات على قتل مئات الفلسطينيين لاغتيال عضو واحد تابع لحركة "حماس".
ونقلت المجلة عن مسؤول استخباراتي قوله، إن الأنظمة المبنية على الذكاء الاصطناعي مثل "حبسورا" تتيح للجيش الإسرائيلي تحديد واستهداف منازل النشطاء الصغار نسبياً في حركة "حماس"، الذين قد يختبئون خلال العمليات العسكرية.
القيادي بحركة حماس يحيى السنوار.. الرجل "الحي الميّت" و"البراغماتي صعب المراس""مصنع الاغتيالات الجماعية"ووصف ضابط سابق، نظام الذكاء الاصطناعي الإسرائيلي بـ "مصنع الاغتيالات الجماعية" أي أنه "مصنع يقوم بتنفيذ اغتيالات جماعية" حيث يتم التركيز حسب تعبيره، على الكمية عوضا عن الجودة.
وسلطت "مجلة 972+" الضوء، على شهادات فلسطينيين منذ هجوم "حماس" المباغت في السابع من أكتوبر/تشرين الأول، والتي تؤكد أن الجيش الإسرائيلي استهدف عشرات المباني والمساكن الخاصة التي لم يكن يقيم فيها أي أعضاء معروفين أو واضحين على صلة بـ "حماس"، أو جماعة مسلحة أخرى.
وأكدت أن هذه الضربات قد تؤدي إلى قتل متعمد لعائلات بأكملها، متسائلة "هل يمكن الوثوق بنظام يعتمد على الذكاء الاصطناعي لاختيار الأهداف التي يجب ضربها".
وأشار أحد الخبراء إلى أن الخوارزميات لا توضح كيفية وصول النظام إلى استنتاجاته، وهذا يجعل من الصعب التحقق من صحة نتيجة الضربة.
وتستعد إسرائيل، التي استخدمت لسنوات عدة التكنولوجيا الذكية لتعزيز قدراتها، لعرض نظام "حبسورا" للبيع عالمياً.
شاهد: مدنيون نازحون في غزة يحاولون الاختباء من النيران الإسرائيلية"كأنه مصنع"ويقوم نظام "حبسورا" بتحليل كميات ضخمة من البيانات التي عجز عن تحليلها عشرات الآلاف من عملاء المخابرات، بهدف تقديم اقتراحات تسهم في تحديد أهداف الجيش الإسرائيلي في الضربات القادمة.
ويشير أحد الضباط إلى أن "استخدام هذا النظام لا يعني أن الجيش لن يراقب الأهداف قبل تنفيذ الضربات، ولكنه يقلل من الجهد المبذول"، ويؤكد أنه "من المؤسف جدًا أن يكون الهدف المقصود هو مجرد أماكن يسكنها مدنيون".
بعد تحليل مجموعة كبيرة من البيانات، يقدم النظام توصياته إلى الجيش الإسرائيلي. ثم يتم بعدها إعداد قائمة بعشرات الأهداف المحتملة التي يمكن أن تكون ضرباتها مفيدة لإسرائيل، وقد تكون أخرى غير مجدية، أو لا تحقق فائدة فعلية. وتتسبب بتدمير منازل العديد من المدنيين، ومقتل العشرات، بسبب افتراض نظام "حبسورا" أن الهدف المستهدف قد يكون تابعًا لأحد قادة "حماس" أو "الجهاد الإسلامي".
أحد الأفراد العاملين في الوحدة المسؤولة عن الاستهداف في الجيش الإسرائيلي، وهي وحدة تستخدم التكنولوجيا الذكية في عملها وقد تأسست عام 2019 يقول: "نقوم بتجهيز الأهداف تلقائياً، ونعمل وفقاً لقائمة مرجعية. إنها تشبه حقًا عملية التصنيع".
وأضاف "نحن نعمل بسرعة، وليس لدينا الوقت لدراسة معمقة للأماكن التي يجب ضربها. يتم تقييمنا بناءً على الأهداف التي نحققها وعددها".
وحسب مصادر متعددة استشهدت بها المجلة، وبينما كان كبار مسؤولي "حماس" يختبئون داخل أنفاق غزة، وبعيدا عن الضربات والقصف الإسرائيلي، استخدم الجيش نظام "حبسورا" لاستهداف منازل مقاتلي الجماعة الإسلامية، وبلغ إجمالي عدد هذه الأهداف في قطاع غزة حوالي 30 ألفاً.
وول ستريت جورنال: إسرائيل تخطط لسحب مياه البحر بمضخات لإغراق أنفاق حماس في غزة وإخراج مقاتليهامعلومات غامضةيستخدم نظام "الإنجيل"، الأدوات الرقمية لإنتاج الأهداف بسرعة، وتحسين المواد الاستخباراتية وفقاً لاحتياجات التشغيل.
ووفقًا لصحيفة "الغارديان"، ما زالت المعلومات حول كيفية عمل "حبسورا" غامضة، ولكن بعض الخبراء أكدوا في مقابلات مع الصحيفة البريطانية أن مثل هذه الأنظمة عادة ما تحتوي على مجموعات شاملة ومتنوعة من البيانات المأخوذة من عدد كبير من المصادر.
يشمل ذلك الاستفادة من صور ومقاطع فيديو للطائرات بدون طيار، وعمليات اعتراض الاتصالات والاستماع إلى المحادثات، واستخدام بيانات المراقبة، واستخلاص المعلومات من خلال مراقبة حركة الأفراد والمجموعات البشرية بشكل دقيق، والتركيز على أنماط سلوكية محددة. (يمكن تسجيل طريقة سير أحدهم كبيانات، ومن ثم يتم تحليل مشاهد فيديو لمجموعات بشرية باستخدام الذكاء الاصطناعي، بهدف تحديد شخص معين بينهم).
شارك هذا المقالمحادثة مواضيع إضافية الجيش الإسرائيلي: وثائق تظهر مستوى من التفاصيل والإعداد الدقيق لهجوم حركة حماس اشتباكات عنيفة بين الجيش الإسرائيلي وحركة حماس في جنوب قطاع غزة "أكاذيب هدفُها شيطنة المقاومة".. هكذا ردت حماس على اتهامها بارتكاب جرائم اغتصاب خلال طوفان الأقصى إسرائيل غزة الذكاء الاصطناعي حركة حماس الصراع الإسرائيلي الفلسطينيالمصدر: euronews
كلمات دلالية: إسرائيل غزة الذكاء الاصطناعي حركة حماس الصراع الإسرائيلي الفلسطيني حركة حماس إسرائيل غزة فلسطين الصراع الإسرائيلي الفلسطيني الشرق الأوسط روسيا طوفان الأقصى البيئة فلاديمير بوتين حركة حماس إسرائيل غزة فلسطين الصراع الإسرائيلي الفلسطيني الشرق الأوسط الذکاء الاصطناعی الجیش الإسرائیلی یعرض الآن Next حرکة حماس قطاع غزة
إقرأ أيضاً:
حَوكمة الذكاء الاصطناعي: بين الابتكار والمسؤولية
يشهد العالم اليوم تطورا مُتسارعا في مجال الذكاء الاصطناعي، حيث أصبحت تطبيقاته تتغلغل في مختلف القطاعات، من الرعاية الصحية إلى التعليم والصناعة والخدمات المالية وغيرها من القطاعات. ومع هذا التوسع الهائل، تتزايد الحاجة إلى وضع أطر تنظيمية تضمن الاستخدام الآمن والمسؤول لهذه التقنية، وهو ما يُعرف بحوكمة الذكاء الاصطناعي.
إن التحدي الرئيس الذي تواجهه الحكومات والمؤسسات يتمثل في إيجاد توازن بين تشجيع الابتكار التكنولوجي من جهة، وضمان الامتثال للمبادئ الأخلاقية والقانونية التي تحمي الأفراد والمجتمعات من المخاطر المحتملة من جهة أخرى. وقد عرفت منظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو) حوكمة الذكاء الاصطناعي بأنها «مجموعة من السياسات والإجراءات والمعايير القانونية التي تهدف إلى تنظيم تطوير واستخدام أدوات الذكاء الاصطناعي بطريقة مسؤولة وشفافة، مع ضمان احترام القيم الإنسانية وحماية الحقوق الأساسية».
ووفقا لتوصية منظمة اليونسكو بشأن أخلاقيات الذكاء الاصطناعي لعام 2021، فإن الحوكمةَ الفعالةَ للذكاء الاصطناعي ينبغي أن تستند إلى مبادئ الشفافية والمساءلة والأمان لضمان تحقيق الفائدة للمجتمع دونَ المساس بالحقوق الفردية. تهدفُ هذه الحوكمة إلى ضمان العدالة والشفافية وحماية البيانات واحترام حقوق الإنسان في جميع مراحل تطوير واستخدام هذه التقنيات. وتبرز أهمية الحوكمة في ضوء المخاطر المحتملة للذكاء الاصطناعي، مثل التحيز الخوارزمي وانتهاك الخصوصية والتأثير على سوق العمل، الأمر الذي يستدعي وضع تشريعات صارمة لضمان عدم إساءة استخدام هذه التقنية.
وفي سياق الجهود الدولية لتنظيم الذكاء الاصطناعي، صدر التقرير الدولي حول سلامة الذكاء الاصطناعي في يناير 2025 عن المعهد الدولي لسلامة الذكاء الاصطناعي (International AI Safety Report)، الذي شارك في إعداده 30 دولة من بينها منظمات دولية بارزة مثل هيئة الأمم المتحدة والاتحاد الأوروبي ومنظمة التعاون الاقتصادي والتنمية، حيث تناول الحالة الراهنة للفهم العلمي المتعلق بالذكاء الاصطناعي العام، وهو ذلك «النوع من الذكاء الاصطناعي القادر على تنفيذ مجموعة واسعة من المهام». وقد هدف التقرير إلى بناء فهم دولي مشترك حول المخاطر المرتبطة باستخدام الذكاء الاصطناعي المتقدم، مع تقديم تحليل شامل للوسائل العلمية والتقنية المتاحة لإدارتها والتخفيف منها بفعالية، وتوفير معلومات علمية تدعم صانعي القرار في وضع سياسات تنظيمية فعالة. وعلى الرغم من الفوائد العديدة التي يقدمها الذكاء الاصطناعي العام، فإن التقرير يحذر من المخاطر المتزايدة المرتبطة باستخدامه.
فمن الناحية الأمنية، قد يُستغل الذكاء الاصطناعي في تنفيذ هجمات سيبرانية متقدمة أو في تسهيل عمليات الاحتيال الإلكتروني، من خلال إنتاج محتوى مزيف (Fake content) يصعب تمييزه عن الحقيقي. كما أن هناك مخاطر اجتماعية تتمثل في إمكانية تعميق التحيزات الموجودة في البيانات التي تُستخدم في تدريب هذه الأنظمة. إضافة إلى ذلك، مخاوف تتعلق بفقدان السيطرة على أنظمة الذكاء الاصطناعي المتقدمة، حيث يمكن أن يؤدي التطور المتسارع لهذه الأنظمة إلى سلوكيات غير متوقعة قد يصعب التحكم بها. أما على المستوى الاقتصادي، فإن الذكاء الاصطناعي قد يتسبب في اضطرابات كبيرة في سوق العمل، حيث يؤدي إلى استبدال العديد من الوظائف التقليدية بالأنظمة الآلية، ففي قطاع خدمة العملاء مثلا، تعتمد الشركات الكبرى مثل أمازون وجوجل على روبوتات الدردشة (Chatbots) لتقديم الدعم الفني والتفاعل مع العملاء بكفاءة عالية، مما يقلل الحاجة إلى الموظفين البشريين.
أما في مجال التصنيع والتجميع، فقد أصبحت الروبوتات الصناعية تقوم بمهام الإنتاج بدقة وسرعة تفوق القدرات البشرية، كما هو الحال في مصانع تسلا وفورد التي تستخدم أنظمة مؤتمتة لتنفيذ عمليات اللحام والتجميع، مما يقلل التكاليف ويرفع كفاءة الإنتاج. ومع استمرار تطور الذكاء الاصطناعي، يُتوقع أن يمتد تأثيره إلى المزيد من القطاعات.
ومع تزايد الاعتماد على الذكاء الاصطناعي في مختلف القطاعات، أصبح من الضروري تبني استراتيجيات وحلول لمواجهة تحديات فقدان الوظائف التقليدية. ويُعد إعادة تأهيل القوى العاملة من أهم هذه الحلول، إذ يجب الاستثمار في برامج تدريبية تُمكن الموظفين من اكتساب مهارات رقمية وتقنية جديدة، مثل تحليل البيانات وتطوير البرمجيات، مما يساعدهم على التكيف مع متطلبات سوق العمل المتغير. إلى جانب ذلك، يمثل تعزيز ريادة الأعمال والابتكار حلا فعالا، حيث يُمكن تشجيع إنشاء مشاريع صغيرة ومتوسطة تعتمد على الذكاء الاصطناعي، مما يخلق فرص عمل جديدة.
كما يعد تبني نموذج العمل الهجين ضرورة مُلحة، إذ يُمكن دمج الذكاء الاصطناعي مع القدرات البشرية بدلا من الاستبدال الكامل، مما يعزز الإنتاجية مع الحفاظ على دور العنصر البشري. كما أن تطوير الأطر القانونية والتنظيمية يعد خطوة مهمة، حيث ينبغي صياغة قوانين تضمن الاستخدام العادل والمسؤول للذكاء الاصطناعي، وتحمي العمال من التمييز الناتج عن الأتمتة. بالإضافة إلى ذلك فإن التعليم المستمر يُسهم في تأهيل القوى العاملة الوطنية لمواكبة التحولات في سوق العمل، حيث ينبغي تعزيز ثقافة التعلم المستمر لضمان قدرة القوى العاملة على التكيف مع المتطلبات المستقبلية للتكنولوجيا المتقدمة. وغيرها من الاستراتيجيات الجديدة لدمج الإنسان مع الآلة في بيئة العمل.
من جانب آخر، هناك مخاطر تتعلق بالخصوصية، حيث يمكن للذكاء الاصطناعي تحليل كميات كبيرة من البيانات الشخصية، مما يزيد من احتمالات انتهاك الخصوصية وسوء استخدام المعلومات. ولتقليل هذه المخاطر، من الضروري تبني مجموعة من الاستراتيجيات التقنية والتنظيمية التي تعزز شفافية وأمان أنظمة الذكاء الاصطناعي. ومن أبرزها، تطوير تقنيات تتيح فهما أعمق لآليات اتخاذ القرار لدى الذكاء الاصطناعي، مما يسهل عملية المراجعة والمساءلة. بالإضافة إلى ذلك، تبرز أهمية تعزيز الأمن السيبراني عبر تصميم بروتوكولات حماية متقدمة لمواجهة التهديدات المحتملة.
كما يجب العمل على تصفية البيانات وتقليل التحيز لضمان دقة وعدالة أنظمة الذكاء الاصطناعي في اتخاذ القرارات. ومن أجل حماية بيانات المستخدمين، يتوجب استخدام تقنيات التشفير القوية وآليات الحماية الحديثة التي تضمن الامتثال لمعايير الخصوصية. بالإضافة إلى ضرورة الحفاظ على دور الإنسان في عمليات اتخاذ القرار، لضمان عدم الاعتماد الكامل على الذكاء الاصطناعي في الأمور الحساسة، مما يقلل من المخاطر المحتملة الناجمة عن التحكم الذاتي للأنظمة. إن التطور السريع لهذه التقنية يتطلب نهجا شاملا يجمع بين البحث العلمي والسياسات التنظيمية والتقنيات المتقدمة لضمان الاستخدام الآمن والمسؤول لهذه الأنظمة، بحيث تتحقق الفائدة المرجوة منها دون التعرض للمخاطر المحتملة.
وقد اعتمدت العديد من الدول سياسات مُتقدمة لتنظيم الذكاء الاصطناعي، حيث اتخذ الاتحاد الأوروبي خطوات رائدة في هذا المجال عبر قانون الذكاء الاصطناعي الأوروبي الذي دخل حيز التنفيذ عام 2024م والذي يُعدُ أول إطار قانوني شامل يهدف إلى تَنظيم استخدام الذكاء الاصطناعي وفق معايير صارمة تحمي الخصوصية وتحد من التحيز الخوارزمي. وفي المقابل، تبنت الولايات المتحدة الأمريكية نهجا يعتمد على توجيهات إرشادية لتعزيز الشفافية والمساءلة، مع منح الشركات حرية الابتكار ضمن حدود أخلاقية محددة. أما الصين، فقد ألزمت الشركات التقنية بمراجعة وتقييم خوارزميات الذكاء الاصطناعي المُستخدمة في المنصات الرقمية، لضمان الامتثال لمعايير الأمان السيبراني.
عليه فإنه يُمكن الإشارة إلى مجموعة من التوصيات والمُبادرات التي يُمكن أن تُسهم في تعزيز حوكمة الذكاء الاصطناعي بشكل فعال، ومن أبرزها: وضع أطر قانونية مَرنة تُتيح تطوير الذكاء الاصطناعي دون عرقلة الابتكار، مع ضمان حماية حقوق الأفراد والمجتمع وتعزيز الشفافية والمساءلة من خلال فرض معايير تضمن وضوح كيفية عمل أنظمة الذكاء الاصطناعي، وإتاحة آليات لمراجعة القرارات التي تتخذها هذه الأنظمة وتعزيز التعاون الدولي لإنشاء منصات مشتركة لمراقبة تطورات الذكاء الاصطناعي وتبادل المعلومات بين الدول حول المخاطر المحتملة وتشجيع البحث والتطوير المسؤول عبر دعم الأبحاث التي تركز على تطوير تقنيات ذكاء اصطناعي أكثر أمانا واستدامة وتعزيز تعليم الذكاء الاصطناعي الأخلاقي من خلال دمج مقررات حوكمة الذكاء الاصطناعي في مناهج المؤسسات الأكاديمية والتعليمية، لضمان وعي المطورين الجدد بالمسؤوليات الأخلاقية المترتبة على استخدام هذه التقنية.
إن حوكمة الذكاء الاصطناعي تُشكل ركيزة أساسية لضمان تحقيق أقصى الفوائد من هذه التقنية، مع الحد من المخاطر المرتبطة بها. وبينما يستمر الابتكار في التقدم بوتيرة غير مسبوقة، فإن المسؤولية تقتضي وضع سياسات وتشريعات تنظيمية تضمن الاستخدام العادل والمسؤول لهذه التقنيات، بما يتوافق مع القيم الأخلاقية والقوانين الدولية. ويُعد تحقيق التوازن بين الابتكار والمسؤولية التحدي الأكبر الذي يواجه الحكومات وصناع القرار، لكن من خلال التعاون الدولي ووضع سياسات متقدمة، يمكن بناء مستقبل مستدام للذكاء الاصطناعي يعود بالنفع على البشرية جمعاء.
عارف بن خميس الفزاري كاتب ومتخصص في المعرفة