◄ الاحتلال يطوِّع الذكاء الاصطناعي لإبادة سكان غزة

◄ تقارير دولية تفضح الممارسات الإجرامية في غزة عبر نظام "لافندر"

النظام يسمح بإطلاق قنابل "غبية" لنسف المنازل بمن فيها

جنود الاحتلال يفضلون التقنيات لأنها "تقتل ببرود"

منح الضوء الأخضر باستهداف المدنيين خلال تعقّب مقاتلي المقاومة

غوتيريش: قلقون لأنَّ قرارات الحياة والموت أصبحت بيد الخوارزميات

تقنيات جديدة تجمع صور وجوه الفلسطينيين وفهرستها ضمن قاعدة بيانات

الذكاء الاصطناعي يحدد 37 ألف هدف فلسطيني محتمل اعتمادًا على حسابات الذكاء الاصطناعي

 

الرؤية- غرفة الأخبار

فضحت تقارير دولية المُمارسات الإجرامية التي يقوم بها جيش الاحتلال الإسرائيلي في غزة، وتعمد إبادة الشعب الفلسطيني ومحو غزة بشكل كامل، من خلال توظيف تقنيات الذكاء الاصطناعي ومنح الضوء الأخضر للجنود بقتل المدنيين.

وأعرب الأمين العام للأمم المتحدة أنطونيو غوتيريش عن القلق البالغ بشأن هذه المعلومات، وقال إنَّ هذه التكنولوجيا ينبغي توظيفها للخير وليس للقتل، كما عبَّر عن قلق بالغ من أن تُصبح "قرارات الحياة والموت" مرتبطة "بحسابات تجريها الخوارزميات".

وكانت مصادر استخباراتية إسرائيلية كشفت لصحيفة "ذا غارديان" البريطانية، استخدام القوات الإسرائيلية نظام "لافندر" في الحرب على غزة، موضحة أنَّه منح الإذن للإسرائيليين بقتل المدنيين أثناء مُلاحقة المقاتلين الفلسطينيين.

وأفادت المصادر الاستخباراتية أنَّ القوات الإسرائيلية اعتمدت في حربها قاعدة بيانات مدعومة بالذكاء الاصطناعي، حددت 37 ألف هدف فلسطيني محتمل، بإنشاء قاعدة بيانات للأفراد تعتمد خوارزميات معينة تضبط معايير البحث، ويسمى نظام الذكاء الاصطناعي "لافندر" وقد طورته الوحدة 8200 (استخبارات النخبة).

وتقول الصحيفة نقلا عن ستة ضباط مخابرات أدلوا بشهادتهم للصحافي يوفال أبراهام، الذي نشر تقريراً في وسيلتين إعلاميتين بالعبرية، إن استخدام إسرائيل لأنظمة الذكاء الاصطناعي في الحرب على غزة دخل مرحلة مبهمة، بعد ستة أشهر من القصف الدامي الذي ذهب ضحيته عشرات آلاف الفلسطينيين بين قتيل وجريح ومشرد، ما يثير مجموعة من الأسئلة القانونية والأخلاقية، ويغير العلاقة بين العسكريين والآلات.

ويقول ضابط إسرائيلي استخدم نظام "لافندر"، إن الثقة في إحصاء آلي أكبر من الثقة في "الجندي الحزين"، وأضاف قوله: "الآلة تقوم بالأمر ببرودة، وهذا جعل الأمر أسهل".

وبحسب الضباط الستة فإنَّ "لافندر" أدرج حوالي 37 ألف فلسطيني ألحقوا بحركتي حماس أو الجهاد عن طريق نظام الذكاء الاصطناعي.

وكان الهجوم يتم باستخدام ما يطلق عليه "القنابل الغبية"، وهي قنابل غير موجهة تقوم بنسف المنزل بالكامل بكل من فيه. وقال مصدر استخباراتي: "لن نقوم باستخدام قنابل ذكية ضد مقاتل غير مهم؛ لأنها غالية جداً، ولدينا نقص بها".

وفقاً لخبراء عسكريين، فإنَّ إسرائيل تستخدم القنابل الغبية لتسوية منازل آلاف الفلسطينيين بالأرض بمساعدة الذكاء الاصطناعي، ما يفسر عدد الضحايا الكبير للحرب.

وجاء في التقرير أنه كان يسمح للجندي الإسرائيلي خلال الغارة الجوية التي تستهدف مقاتلين، بقتل 15 أو 20 مدنيا، أو 100 مدني مع كل قيادي بإسقاط قنابل "غبية" تدمر منازل بأكملها وتقتل كل ساكنيها، وقد ارتفع عدد الضحايا القتلى بعد مرور ستة أشهر إلى أكثر من 33 ألفا، فيما تجاوز عدد الجرحى 75 ألفا.

وسابقا، أكدت صحيفة "الجارديان" أن الجيش الإسرائيلي يستخدم برنامج ذكاء اصطناعي يدعى "غوسبل"، لافتة إلى أنه تتم تغذيته بالبيانات، ليقوم باختيار "الأهداف" التي يراد قصفها في قطاع غزة، "والتي تشمل الجماعات المسلحة وقادتها".

وذكرت الصحيفة أن وحدة استخبارات عسكرية سرية، يديرها الذكاء الاصطناعي، تلعب دورا مهما في رد إسرائيل على هجمات حماس.

وكانت صحيفة "نيويورك تايمز" نقلت في وقت سابق عن ضباط مخابرات وعسكريين إسرائيليين أن القوات الإسرائيلية تستخدم برنامجا لـ"التعرف على الوجه" والذي يمكنه "جمع صور الوجوه للفلسطينيين وفهرستها" ويمكنه تحديد أسماء الأشخاص في ثوان معدودة.

وأكدوا أن "إسرائيل بدأت في استخدام هذا البرنامج منذ أواخر العام الماضي" من دون الإعلان عنه، بحيث يتم جمع الصور وحفظها دون علم أو موافقة السكان الفلسطينيين.

وقال أحد الضباط للصحيفة "إنه في بعض الأحيان كانت هذه التقنية تصنف بشكل خاطئ المدنيين على أنهم من مقاتلي حماس المطلوبين".

المصدر: جريدة الرؤية العمانية

إقرأ أيضاً:

هل اقترب عصر الذكاء الاصطناعي الواعي؟

استغرق الذكاء الاصطناعي التوليدي كتقنية "شات جي بي تي" شهرين فقط كي يصل إلى 100 مليون مستخدم، وهو رقم قياسي بالمقارنة مع الزمن الذي استغرقته التقنيات الأخرى للوصول إلى العدد نفسه من المستخدمين، فتيك توك استغرق 9 أشهر، وواتساب 40 شهرا، ويوتيوب 49 شهرا، وفيسبوك 54 شهرا، والإنترنت 80 شهرا، والهاتف المحمول 190 شهرا، والسيارة 400 شهر، والهاتف السلكي 900 شهر.

يتفق العديد من كبار رجال الأعمال على أن الذكاء الاصطناعي سيغير معالم الحياة خلال بضع سنوات فقط. ففي 21 مارس/آذار 2023 كتب بيل غيتس في مدونته تحت عنوان "لقد بدأ عصر الذكاء الاصطناعي" ما يلي:

"الذكاء الاصطناعي تطور أساسي مثله مثل المعالجات الدقيقة، والحاسوب الشخصي، والإنترنت، والهاتف المحمول وسوف يغير الطريقة التي يعمل بها الإنسان، ويتعلم، ويسافر، ويحصل على الرعاية الصحية، ويتواصل مع الآخرين".

وفي الثاني من نوفمبر/تشرين الثاني 2023 التقى إيلون ماسك مع رئيس الوزراء البريطاني ريشي سوناك، ودار حديث بينهما عن مستقبل الذكاء الاصطناعي، قال عنه ماسك إنه "القوة التغييرية الأعمق في تاريخ البشرية"، وأضاف "ستأتي اللحظة التي لا يعود فيها الإنسان بحاجة إلى وظيفة. طبعا يمكنه الحصول على وظيفة إرضاء لذاته، ولكن الذكاء الاصطناعي سيكون قادرا على القيام بكل شيء".

وعلى الرغم من اتفاق معظم رجال الأعمال والتقنيين على أهمية الدور الذي بدأ يلعبه الذكاء الاصطناعي في حياتنا، فإن الآراء تختلف بشكل كبير حول مدى اقترابه من الذكاء الاصطناعي العام والواعي.

"الواعي" و"المستيقظ"

يتداول حاليا في الأوساط العلمية وأوساط مدراء الشركات والمفكرين مصطلحان هما "الذكاء الاصطناعي الواعي" (Sentient AI) و"الذكاء الاصطناعي المستيقظ" (Woke AI). وفيما يشير المصطلحان إلى مفاهيم مختلفة في سياق الذكاء الاصطناعي، فإن كلاهما يتعلق بميزات متقدمة لأنظمة الذكاء الاصطناعي.

الذكاء الاصطناعي الواعي: يشير إلى الذكاء الاصطناعي الذي يملك مستوى من الوعي الذاتي والوعي بالعالم الخارجي، بما في ذلك الشعور بالألم، والمتعة، والمشاعر الأخرى. يثير الذكاء الاصطناعي الواعي أسئلة عن حقوق الروبوت ومسؤولياته والمعاملات الأخلاقية المرتبطة بذلك. والجدير بالذكر أن التقنيات الراهنة لم تتمكن بعد من إنتاج الذكاء الاصطناعي الواعي، لكن يتوقع بعض العلماء المتفائلين أن نصل إليه خلال بضع سنوات.

الذكاء الاصطناعي المستيقظ: لا يملك تعريفا صارما، ولكنه يشير عموما إلى أنظمة الذكاء الاصطناعي التي يتم تصميمها بحيث تعالج القضايا الأخلاقية والاجتماعية والثقافية، فتتجنب التحيزات العرقية والجنسية والاقتصادية، وتحترم التنوع.

وفي شهر أبريل/نيسان 2023، أجرى موقع فيوتشريزم الإعلامي (Futurism) مقابلة مع المهندس بليك ليموين الذي سبق أن طردته غوغل، لأنه قال إن الذكاء الاصطناعي الذي تطوره الشركة يمتلك وعيا. وفي هذه المقابلة كرر بليك القول إنه "يوجد احتمال أن يمتلك الذكاء الاصطناعي مشاعر وقد يمكنه أن يعاني ويفرح، ويجب على البشر على الأقل أن يضعوا ذلك في الاعتبار عند التفاعل معه".

وفي 13 مايو/أيار 2024، أطلقت شركة "أوبن إيه آي" (Open AI) إصدارة جديدة من جي بي تي باسم "جي بي تي-4 أو" (GPT-4o)، حيث يمثل الحرف "o" اختصارا لكلمة "Omni" التي تعني كل أو كلي. وقالت الشركة عن هذه الإصدارة إنها أول تقنية تفهم عواطف البشر وترد بشكل عاطفي أيضا، من خلال تحليل سياق الكلمات ونبرات الصوت وملامح الوجه، مما يشير إلى بداية التركيز على تطوير الذكاء العاطفي الاصطناعي.

المهندس بليك ليموين الذي طردته غوغل لأنه قال إن الذكاء الاصطناعي الذي تطوره الشركة يمتلك وعياً (مواقع التواصل الاجتماعي) ليس الجميع يتفق على الذكاء

لا يتفق الجميع على أن الذكاء الاصطناعي سيصل قريبا إلى مستوى ذكاء الإنسان ويمتلك الوعي، بل حذر أستاذ الاقتصاد والحائز على جائزة نوبل بول رومر، من المبالغات الجارية حاليا بشأن تطور الذكاء الاصطناعي، فقال في مؤتمر "يو بي إس" (UBS) الآسيوي للاستثمار الذي عقد في هونغ كونغ أواخر شهر مايو/أيار الماضي "الثقة الجامحة السائدة حاليا بشأن المسار المستقبلي للذكاء الاصطناعي عالية جدا، وقد لا تتناسب مع التطورات المستقبلية الفعلية، وقد تؤدي إلى خطأ فادح للغاية".

وأضاف "نحن نغامر بتكرار فقاعة الضجيج حول العملات المشفرة التي حدثت قبل عامين فقط".

ويوجد من لا يعتقد بإمكانية أن يصبح الذكاء الاصطناعي واعيا. فالمؤلف الأميركي يوجين ليندن يرى أنه "قد تمر قرون قبل أن نتمكن من بناء نسخ حاسوبية طبق الأصل عن أنفسنا، هذا في حال تمكنا من ذاك".

والأعقد من ذلك، أن مفهوم الوعي بحد ذاته ما زال غامضا، ولهذا اقترح الفيلسوف الألماني توماس ميتزينجر فرض حظر عالمي على المحاولات المتعمدة لخلق وعي مصطنع للذكاء الاصطناعي إلى حين نصل إلى تفسير دقيق للوعي، لكن هذا الاقتراح لاقى معارضة كون الاتفاق على معنى الوعي قد يأخذ وقتا طويلا.

الخبراء يحذرون من أن الذكاء الاصطناعي المستيقظ متحيز حتى الآن على الأقل (غيتي) تحذيرات حول الذكاء المستيقظ

أما فيما يتعلق بالذكاء الاصطناعي المستيقظ، فيوجد إجماع على أن حقبته قد بدأت مع برامج الدردشة التي ترتكز على الذكاء الاصطناعي التوليدي مثل شات جي بي تي، وغوغل جيمني (Gemini)، والتي تجيب عن الأسئلة المرتبطة بالثقافة والأخلاق والتنوع الاجتماعي.

لكن يحذر بعض الخبراء من أن الذكاء الاصطناعي المستيقظ متحيز (حتى الآن على الأقل)، فمثلا أظهر جيمني صورا لأشخاص سمر البشرة وآسيويين يرتدون الزي العسكري الألماني النازي في فترة الحرب العالمية الثانية، كما أظهر صورا لهنود حمر يرتدون زي الفايكونغ، وهو ما اعتبره الخبراء تزييفا للتاريخ.

ودفع إيلون ماسك للقول "الذكاء الاصطناعي المستيقظ مثل غوغل جيمني يمكن أن يقتل الناس".

وأقر الرئيس التنفيذي لشركة غوغل، ساندر بيتشاي في مذكرة داخلية، بأن بعض ردود جيمني "أساءت لمستخدمينا وأظهرت تحيزا". وقال إن ذلك "غير مقبول على الإطلاق"، مضيفا أن فرقه "تعمل على مدار الساعة" لإصلاح المشكلة.

لكن مشكلة الذكاء الاصطناعي المستيقظ لا تقتصر على جيمني، بل تتعلق بجميع نظم الذكاء الاصطناعي التوليدي، كونها ترتكز على الكميات الهائلة من البيانات التي يتم تدريب أدوات الذكاء الاصطناعي عليها، بما في ذلك بيانات عنصرية ومتحيزة.

تحاول الشركات المطورة لهذه النظم حاليا معالجة هذه المشكلة العويصة باستبعاد البيانات المتحيزة من التدريب. وعلى الرغم من هذه المشكلة الراهنة، يرى بعض المفكرين أن الذكاء الاصطناعي المستيقظ أكثر حيادية من ذكاء البشر. تقول جانيت آدامز، المديرة التنفيذية للعمليات المتفائلة في مؤسسة "سينغولارتي نت" (SingularityNET) "أرى مستقبلا يتخذ فيه الذكاء الاصطناعي العام قرارات أكثر أخلاقية من القرارات التي يتخذها البشر. ويمكنه أن يفعل ذلك لكونه لا يملك مشاعر غيرة أو جشع أو أجندات خفية".

مقالات مشابهة

  • لاجئ أوكراني: قوات نظام كييف تعمدت إطلاق النار على المواطنين أثناء عمليات الإجلاء
  • مشروع قانون بالبرلمان لحوكمة الذكاء الاصطناعي
  • عشرات التونسيين يتظاهرون احتجاجا على جرائم "الإبادة" الإسرائيلية بغزة
  • انتقادات لأصوات تطبيقات الذكاء الاصطناعي
  • السفير الفلسطيني بالقاهرة: إغلاق مصر لمعبر رفح أكذوبة إسرائيلية 
  • كندا تفرض عقوبات على أفراد وكيانات إسرائيلية تدعم العنف ضد المدنيين الفلسطينيين
  • إسرائيل تضمّ الضفة: غياب الفعل الفلسطيني
  • بايدن: منعت وصول قنابل لإسرائيل لحماية المدنيين ودعمناها في مواجهة إيران
  • إسرائيل تدرس الإفراج عن 120 أسيرا بسبب اكتظاظ السجون
  • هل اقترب عصر الذكاء الاصطناعي الواعي؟