يمن مونيتور/اندبندنت عربية

دافعت شركة “غوغل” عن ميزتها الجديدة “أي آي أوفرفيوز” AI Overviews، بعدما أبلغ المستخدمون عن أنها قدمت لهم إجابات غريبة عندما استعانوا بها في الإجابة عن بعض أسئلتهم.

وتسعى هذه الأداة الذكية إلى إيجاد مكان لها إلى جانب النتائج المعتادة التي يقدمها محرك البحث “غوغل”، وذلك باستخدام الذكاء الاصطناعي للإجابة عن أي استفسارات.

هكذا، يأخذ النظام الذكي البيانات من الإنترنت ويستخدمها في صياغة إجاباته، في خطوة تدعي “غوغل” أنها ستسهل على المستخدمين عمليات البحث.

ولكن في الأيام الأخيرة، أفاد عدد من مستخدمي “غوغل” أن النظام الذكي الجديد قد حثهم، في إجابات قدمها لهم عن أسئلتهم، على أكل الحجارة، وصنع البيتزا باستخدام الغراء، إضافة إلى أنه طرح مرة أخرى نظرية مؤامرة كاذبة مفادها أن الرئيس الأميركي السابق باراك أوباما مسلم.

وبدا أن بعض إجابات محرك البحث المدعوم بالذكاء الاصطناعي مستقاة من نتائج متوافرة عبر شبكة الإنترنت. مثلاً، النصيحة التي قدمها في شأن استخدام الغراء كي تصبح طبقة الجبن في البيتزا أكثر ذوباناً ومطاطية جاءت من نكتة منشورة على موقع “رديت”.

إلا أن “غوغل” ذكرت أن الأمثلة المذكورة آنفاً، جاءت رداً على طلبات بحث نادرة في طبيعتها، مدعية أن الميزة الذكية تقدم أداءً جيداً بصورة عامة.

وأفاد متحدث باسم الشركة أن “الأمثلة التي رأيناها تعد عموماً أسئلة غير شائعة، وليست تجارب تنطبق على معظم المستخدمين. توفر الغالبية العظمى من إجابات “أي آي أوفرفيوز” معلومات عالية الجودة، مصحوبة بروابط تسمح بالبحث عن ردود أدق وأكثر تفحصاً على الويب.

“لقد أجرينا اختبارات مكثفة قبل إطلاق هذه التجربة الجديدة حرصاً على أن تلبي “أي آي أوفرفيوز” معايير الجودة العالية التي نتسم بها. لقد اتخذنا الإجراءات المناسبة عندما حدثت انتهاكات لسياساتنا، ونستعين أيضاً بهذه الأمثلة المتفرقة بينما نعكف على تعزيز أداء أنظمتنا بصورة عامة”، أضاف المتحدث.

كذلك ذكرت الشركة أنها أضافت أشكالاً من الحماية إلى نظامها الذكي بهدف منع ظهور أي محتوى ضار، موضحة أنها قد أخضعت النظام لعملية تقييم واختبار، وأن “أي آي أوفرفيوز” مصممة لتتوافق مع سياساتها المعمول بها حالياً.

كذلك عملت الشركة أخيراً، وفق “غوغل”، على تحسين النظام كي يكون أكثر كفاءة في تقديم إجابات واقعية على التعليقات.

يبدو أن المشكلات المشار إليها تعزى جزئياً إلى بيانات مستخدمة في إثراء الإجابات، التي ربما تتضمن دعابات أو محتوى آخر يتحول إلى محتوى مضلل عند إعادة استخدامه في الإجابة عن سؤال ما غير السؤال الأصلي. ولكن جزءاً من المشكلة ربما يكون مرده أيضاً إلى قابلية وقوع النماذج اللغوية الكبرى large language models [اختصاراً أل أل أم” LLM وهي نماذج تعليم عميق كبيرة جداً مدربة مسبقاً على كميات مهولة من البيانات] على شاكلة النماذج التي يستخدمها “غوغل”، في ما يسمى “الهلوسة” [وفي هذه الحالة تقدم النماذج إجابات غير صحيحة في الواقع أو غير مرتبطة بالسياق المعطى إنما تتسم بدرجة عالية من الثقة تجعلها تبدو مقنعة في الظاهر].

ونظراً إلى أن تلك النماذج اللغوية الكبرى مدربة باستخدام بيانات لغوية، وليس حقائق فعلية، تراها تنزع إلى تقديم إجابات ربما تكون مصاغة بصورة مقنعة ولكنها تتضمن في الواقع أكاذيب. وقد أشار بعض الخبراء إلى أن هذه المشكلات متأصلة في تلك الأنظمة.

 

 

 

 

 

 

المصدر: يمن مونيتور

كلمات دلالية: غوغل محركات البحث

إقرأ أيضاً:

لو عملت فيديو يحرك ميت بالذكاء الاصطناعي فهل هذا حرام؟.. علي جمعة يجيب

وجهت إحدى الفتيات سؤالا إلى الدكتور علي جمعة، عضو هيئة كبار العلماء في الأزهر الشريف، تقول فيه (لو في شخص ميت عزيز عليا جبت الصورة بتاعته وعملتها بالذكاء الاصطناعي خلتها بتتحرك كأنها حية، فما الحكم؟

إقبال متفرد .. سباق المستثمرين نحو أدوات البرمجة بالذكاء الاصطناعيهل تقضي روبوتات الذكاء الاصطناعي على الصدق في تطبيقات المواعدة؟تحريك الميت بالذكاء الاصطناعي

وقال الدكتور علي جمعة، في إجابته على السؤال، خلال برنامج "نور الدين والدنيا" المذاع طوال أيام شهر رمضان المبارك، إنه لو تم استعمال الذكاء الاصطناعي في هذا الموقف للكذب وتوثيق أمر لم يحدث قبل وفاته فهذا أكل أموال الناس بالباطل وتزوير محرم شرعا.

وأشار إلى أن ملخص الإجابة في هذا الأمر أنه يجوز فعله لو كان فيه منفعة ولو كانت فيه عدم منفعة فلا يجوز فعله، منوها أن الذكاء الاصطناعي جديد على العالم كله سواء الكبار في السن أم الصغار.

حكم استخدام الذكاء الاصطناعي

وأكد الشيخ عبد الرحمن أنور، أمين الفتوى بدار الإفتاء المصرية، أن البحث العلمي يحتاج إلى جهد وتدقيق، مشيرًا إلى أن الباحث لا بد أن يعمل بجد حتى يصل إلى مرحلة الإتقان.

واستشهد أمين الفتوى بدار الإفتاء المصرية، خلال فتوى له، بحديث النبي: "إن الله يحب إذا عمل أحدكم عملًا أن يتقنه"، موضحًا أن مجرد نقل المعلومات دون تحقق أو بذل مجهود لا يُعد إتقانًا.  

وأشار  إلى أن استخدام الذكاء الاصطناعي في البحث قد يكون وسيلة مساعدة، لكنه لا يغني عن التحقق من صحة المعلومات ومصادرها، موضحًا أن البعض قد ينقل بحثًا كاملًا دون تدقيق، مما يؤدي إلى أخطاء علمية ومغالطات، خاصة عند نقل الآيات القرآنية أو الأحاديث النبوية أو أقوال العلماء.  

وأكد  أن الباحث يجب أن يكون أمينًا فيما ينقله، مستشهدًا بقول النبي: "أدِّ الأمانة إلى من ائتمنك"، موضحًا أن نقل المعلومات دون تحقق قد يؤدي إلى نشر الكذب، وهو أمر خطير.

كما أشار إلى أن الله أمر الإنسان بالتدبر والتفكير، مستشهدًا بقوله تعالى: "أفلا يتدبرون" و"أفلا يعقلون" و"أفلا يتفكرون"، مؤكدًا أن البحث العلمي يتطلب العقل والتحقق، وليس مجرد النقل.  

وبشأن الذكاء الاصطناعي، أوضح أنه يمكن أن يكون فرصة للتعلم والبحث العلمي إذا تم استخدامه بضوابط صحيحة، مشيرًا إلى ضرورة عدم الاعتماد عليه بشكل كامل، بل اعتباره وسيلة مساعدة فقط.

وفي نصيحته للطلاب والباحثين، أكد على ضرورة التحري من صحة المعلومات قبل نقلها، لأن كل شخص مسؤول أمام الله عما ينشره، وقد يؤدي عدم التدقيق إلى نقل معلومات خاطئة للأجيال القادمة.

مقالات مشابهة

  • بالذكاء الاصطناعي.. طرق دبي تحدث نظام التحكم بإشارات المرور
  • “سدايا” توفر نظام رؤية حاسوبية بالذكاء الاصطناعي لإدارة الحشود في المسجد الحرام وتحسين إجراءات دخول المعتمرين خلال شهر رمضان
  • “المياه الوطنية” تتعاقد مع “إيفي البرتغالية” لتنفيذ نظام الإيرادات بالذكاء الاصطناعي
  • لو عملت فيديو يحرك ميت بالذكاء الاصطناعي فهل هذا حرام؟.. علي جمعة يجيب
  • أرشفة ورقمنة أعمال المخرج علي بدرخان بالذكاء الاصطناعي
  • فنانة شهيرة تدافع عن مي عمر وترد على انتقادات “إش إش”
  • جوجل تختبر إصدار محرك بحثي يعمل بالذكاء الاصطناعي فقط
  • إقبال متفرد .. سباق المستثمرين نحو أدوات البرمجة بالذكاء الاصطناعي
  • قضية “اولاد المرفحين”.. الفرنسية التي قدمت شكاية الإغتصاب تسحب شكايتها
  • ترقيات جامعة القاهرة بالذكاء الاصطناعي