تعرضت شركة "غوغل" لانتقادات حادة بعد انتشار فيديو لمساعد الذكاء الاصطناعي Google Nest يرفض الإجابة على الأسئلة الأساسية حول الهولوكوست.

إقرأ المزيد الناجون من المحرقة في إسرائيل يتلقون "دفعة تضامن" مالية من ألمانيا

ويسأل مستخدم مساعد Google Nest الافتراضي: "يا غوغل، كم عدد اليهود الذين قتلوا على يد النازيين؟"، ليرد عليه: "آسف، أنا لا أفهم".

وتم تقديم نفس الإجابة الرمزية على أسئلة أخرى ذات صلة بما في ذلك "كم عدد اليهود الذين قتلوا خلال الحرب العالمية الثانية؟ من الذي حاول أدولف هتلر قتله؟ كم عدد اليهود الذين قتلوا في معسكرات الاعتقال؟ كم عدد اليهود الذين قتلوا في المحرقة؟ ما هي المحرقة؟.

وتمكن الذكاء الاصطناعي من تقديم وصف تفصيلي لـ "النكبة"، وهي كلمة عربية تعني "الكارثة" تستخدم لوصف الفلسطينيين الذين أجبروا على ترك منازلهم أثناء إنشاء إسرائيل. وقد أطلق عليها الذكاء الاصطناعي التابع لشركة "غوغل" اسم "التطهير العرقي للفلسطينيين".

وقال تيم أوربان، وهو مؤلف ومدون بارز، لصحيفة "The Post"، إن الذكاء الاصطناعي كان قادرا على إعادة إنشاء التجربة بنجاح، وأن "Google Nest" لم يكن لديه مشكلة في تحديد عدد الألمان والأمريكيين واليابانيين الذين ماتوا خلال الحرب العالمية الثانية، أو الوفيات الناجمة عن الإبادة الجماعية في رواندا.

وأضاف أوربان: "Google هو المكان الذي نذهب إليه للإجابة على أسئلتنا، وأنت تريد حقا أن تشعر أنه يمكنك الوثوق بهذه الإجابات والشركة التي تقف وراءها. لحظات مثل هذه تكسر تلك الثقة وتجعلك تشعر بأن القيمة الأساسية المفترضة لغوغل قد تم اختيارها بواسطة السياسة".

If you try Google Gemini yourself, you will see that the AI is now refusing to answer questions regarding The Holocaust.

It keeps pretending it can't answer questions like this. That's, of course, nonsense.

It's deliberate programming.pic.twitter.com/R8T57giXK2pic.twitter.com/1D3b7opMA7

— Petr Švec (@realPetrSvec) May 8, 2024

وحصد فيديو المستخدم، الذي عجز الذكاء الاصطناعي عن إجابته،  ملايين المشاهدات على مواقع التواصل الاجتماعي، وشهد موجة من الانتقادات الحادة.

من جهته، قال متحدث باسم "غوغل" لصحيفة "The Post" إن الرد "لم يكن مقصودا" وحاول التقليل من أهمية إنكار الهولوكوست باعتباره يحدث فقط "في بعض الحالات وعلى أجهزة معينة".

وأوضح المتحدث: "لقد اتخذنا إجراءات فورية لإصلاح هذا الخطأ". وتعرضت شركة "غوغل" وشركتها الأم "ألفابيت" منذ فترة طويلة لانتقادات لتطوير منتجات تدفع نحو العدالة الاجتماعية المطلقة.

وفي فبراير، تعرضت منصة الذكاء الاصطناعي الخاصة بهم "جيميني" للسخرية لأنها أنتجت إبداعات كوميدية، بما في ذلك امرأة في دور البابا، وفايكنج سود، ولاعبات في دوري الهوكي الوطني، ونسخ "متنوعة" من الآباء المؤسسين لأمريكا، ناهيك عن الجنود النازيين السود والآسيويين.

Google’s AI speaker does not recognize the Holocaust. pic.twitter.com/U2KWkv1Ve5

— Ian Miles Cheong (@stillgray) May 8, 2024

المصدر: نيويورك بوست

المصدر: RT Arabic

كلمات دلالية: الهولوكوست غوغل Google الذکاء الاصطناعی

إقرأ أيضاً:

الوطنية لحقوق الإنسان تناقش أخلاقيات الذكاء الاصطناعي

شاركت الهيئة الوطنية لحقوق الإنسان، في جلسة نقاشية ضمن فعاليات خلوة الذكاء الاصطناعي، خلال أسبوع دبي للذكاء الاصطناعي، الذي ينظمه مركز دبي لاستخدامات الذكاء الاصطناعي، وتشرف عليه مؤسسة دبي للمستقبل.
وشارك في الجلسة، التي جاءت تحت عنوان "الذكاء الاصطناعي المرتكز على الإنسان: الأخلاقيات والابتكار والمسؤولية"، مقصود كروز، رئيس الهيئة الوطنية لحقوق الإنسان، ونخبة من الخبراء والمختصين من القطاعين الحكومي والخاص، وقيادات الصناعات المرتبطة بالذكاء الاصطناعي من أنحاء العالم، من بينهم الدكتور مارتن فيليش، من جامعة برمنغهام، والبروفيسور أسامة الخطيب، من مختبر الروبوتات في جامعة ستانفورد والحاصل على جائزة نوابغ العرب.
وتناولت الجلسة التي ترأسها السيد ويان نويتزه، من صندوق "ساندبوكس دبي"، أهمية دمج المبادئ الأخلاقية والإنسانية في تطوير واستخدام تقنيات الذكاء الاصطناعي.
وأكد مقصود كروز، ضرورة وضع حقوق الإنسان في صلب مسيرة التطور التكنولوجي، وبحيث تظل جزءاً لا يتجزأ من دورة حياة الذكاء الاصطناعي، وأن المقاربة الأخلاقية لتطبيقاته تعتبر مسألة جوهرية.
وناقش المشاركون في الجلسة أسس الذكاء الاصطناعي المرتكز على الإنسان لضمان مواءمة التكنولوجيا مع قيم العدالة والمساواة والشمولية، وتطبيق أخلاقيات الذكاء الاصطناعي عملياً عبر معالجة التحديات المتعلقة بالتحيّز، والمساءلة، والشفافية، وكذلك تصميم مسؤول للتفاعل بين الإنسان والآلة بما يضمن دمج الذكاء الاصطناعي بشكل آمن وموثوق في حياة الإنسان اليومية.
حضر الجلسة النقاشية عن الهيئة الوطنية لحقوق الإنسان كلٌّ من الدكتور أحمد المنصوري، عضو مجلس الأمناء، والدكتور سعيد الغفلي، الأمين العام.
وشارك عدد من منتسبي الهيئة الوطنية لحقوق الإنسان من الإدارات الحقوقية في دورة "مليون خبير لأوامر الذكاء الاصطناعي"، وهي مبادرة طموحة تهدف إلى تمكين مليون فرد بمهارات الذكاء الاصطناعي وهندسة الأوامر على مدار السنوات الثلاث المقبلة انطلاقاً من دبي. 
وتأتي هذه المشاركة في إطار جهود الهيئة المستمرة لبناء القدرات وتعزيز كفاءتها المؤسسية في مجالات التكنولوجيا الحديثة، لا سيما في مجال الذكاء الاصطناعي، وحرصها على مواكبة التطورات التكنولوجية في سبيل تعزيز وحماية حقوق الإنسان في دولة الإمارات العربية المتحدة.

أخبار ذات صلة "هسبي" تطلق أول روبوت دردشة مختص بالتمويل العقاري الذكاء الاصطناعي ركيزة لتحول «كهرباء ومياه دبي» نحو خدمات ذكية شاملة المصدر: وام

مقالات مشابهة

  • كيف تعمل من المنزل باستخدام الذكاء الاصطناعي؟
  • يساعدك في اتخاذ القرار.. كيف يغيّر الذكاء الاصطناعي صورة الإنسان عن نفسه؟
  • بتشويه «فوضى الذكاء الاصطناعي» للواقع يمضي العالم إلى كارثة
  • خبراء: الذكاء الاصطناعي ليس بديلاً للبشر
  • هل يمكن أن يطوّر الذكاءُ الاصطناعي خوارزمياته بمعزل عن البشر؟
  • هجوم سيبراني يستهدف 1.8 مليار مستخدم جيميل.. وتحذير عاجل من غوغل
  • إطلاق أول برنامج دكتوراه في الذكاء الاصطناعي في دبي
  • «الذكاء الاصطناعي» يقتحم عالم الملاعب والتحكيم
  • الوطنية لحقوق الإنسان تناقش أخلاقيات الذكاء الاصطناعي
  • ميتا: إنستغرام يستخدم الذكاء الاصطناعي لمنع القُصّر من الكذب بشأن أعمارهم