“غوغل” تدافع عن محركها المدعوم بالذكاء الاصطناعي
تاريخ النشر: 28th, May 2024 GMT
يمن مونيتور/اندبندنت عربية
دافعت شركة “غوغل” عن ميزتها الجديدة “أي آي أوفرفيوز” AI Overviews، بعدما أبلغ المستخدمون عن أنها قدمت لهم إجابات غريبة عندما استعانوا بها في الإجابة عن بعض أسئلتهم.
وتسعى هذه الأداة الذكية إلى إيجاد مكان لها إلى جانب النتائج المعتادة التي يقدمها محرك البحث “غوغل”، وذلك باستخدام الذكاء الاصطناعي للإجابة عن أي استفسارات.
ولكن في الأيام الأخيرة، أفاد عدد من مستخدمي “غوغل” أن النظام الذكي الجديد قد حثهم، في إجابات قدمها لهم عن أسئلتهم، على أكل الحجارة، وصنع البيتزا باستخدام الغراء، إضافة إلى أنه طرح مرة أخرى نظرية مؤامرة كاذبة مفادها أن الرئيس الأميركي السابق باراك أوباما مسلم.
وبدا أن بعض إجابات محرك البحث المدعوم بالذكاء الاصطناعي مستقاة من نتائج متوافرة عبر شبكة الإنترنت. مثلاً، النصيحة التي قدمها في شأن استخدام الغراء كي تصبح طبقة الجبن في البيتزا أكثر ذوباناً ومطاطية جاءت من نكتة منشورة على موقع “رديت”.
إلا أن “غوغل” ذكرت أن الأمثلة المذكورة آنفاً، جاءت رداً على طلبات بحث نادرة في طبيعتها، مدعية أن الميزة الذكية تقدم أداءً جيداً بصورة عامة.
وأفاد متحدث باسم الشركة أن “الأمثلة التي رأيناها تعد عموماً أسئلة غير شائعة، وليست تجارب تنطبق على معظم المستخدمين. توفر الغالبية العظمى من إجابات “أي آي أوفرفيوز” معلومات عالية الجودة، مصحوبة بروابط تسمح بالبحث عن ردود أدق وأكثر تفحصاً على الويب.
“لقد أجرينا اختبارات مكثفة قبل إطلاق هذه التجربة الجديدة حرصاً على أن تلبي “أي آي أوفرفيوز” معايير الجودة العالية التي نتسم بها. لقد اتخذنا الإجراءات المناسبة عندما حدثت انتهاكات لسياساتنا، ونستعين أيضاً بهذه الأمثلة المتفرقة بينما نعكف على تعزيز أداء أنظمتنا بصورة عامة”، أضاف المتحدث.
كذلك ذكرت الشركة أنها أضافت أشكالاً من الحماية إلى نظامها الذكي بهدف منع ظهور أي محتوى ضار، موضحة أنها قد أخضعت النظام لعملية تقييم واختبار، وأن “أي آي أوفرفيوز” مصممة لتتوافق مع سياساتها المعمول بها حالياً.
كذلك عملت الشركة أخيراً، وفق “غوغل”، على تحسين النظام كي يكون أكثر كفاءة في تقديم إجابات واقعية على التعليقات.
يبدو أن المشكلات المشار إليها تعزى جزئياً إلى بيانات مستخدمة في إثراء الإجابات، التي ربما تتضمن دعابات أو محتوى آخر يتحول إلى محتوى مضلل عند إعادة استخدامه في الإجابة عن سؤال ما غير السؤال الأصلي. ولكن جزءاً من المشكلة ربما يكون مرده أيضاً إلى قابلية وقوع النماذج اللغوية الكبرى large language models [اختصاراً أل أل أم” LLM وهي نماذج تعليم عميق كبيرة جداً مدربة مسبقاً على كميات مهولة من البيانات] على شاكلة النماذج التي يستخدمها “غوغل”، في ما يسمى “الهلوسة” [وفي هذه الحالة تقدم النماذج إجابات غير صحيحة في الواقع أو غير مرتبطة بالسياق المعطى إنما تتسم بدرجة عالية من الثقة تجعلها تبدو مقنعة في الظاهر].
ونظراً إلى أن تلك النماذج اللغوية الكبرى مدربة باستخدام بيانات لغوية، وليس حقائق فعلية، تراها تنزع إلى تقديم إجابات ربما تكون مصاغة بصورة مقنعة ولكنها تتضمن في الواقع أكاذيب. وقد أشار بعض الخبراء إلى أن هذه المشكلات متأصلة في تلك الأنظمة.
المصدر: يمن مونيتور
كلمات دلالية: غوغل محركات البحث
إقرأ أيضاً:
بالفيديو.. مستشار أمن سيبراني: جوجل تطلق مبادرة لتوفير دورات تعليمية بالذكاء الاصطناعي
تابع أحدث الأخبار عبر تطبيق
قال بلال أسعد، مستشار أمن السيبراني والذكاء الاصطناعي، إنّ جوجل نشرت الكثير من الدورات المختلفة سواء المتعلقة بالأمن السيبراني أو تقنية الذكاء الاصطناعي، موضحا أنّه مع تطور الفرص الحديثة أدى إلى إدراج جوجل للذكاء الاصطناعي في هذا المجال من خلال إطلاق مبادرة لتعزيز الذكاء الاصطناعي في الشرق الأوسط.
وأضاف «أسعد»، خلال مداخلة هاتفية عبر قناة «القاهرة الإخباريةۘ»، أنّ مبادرة جوجل في الذكاء الاصطناعي تتيح إدراج الفرص التعليمية والتنموية للبشرية، كما توفر فرص للأشخاص الذين لا يملكون مصادر أو الانضمام لمعاهد وجامعات، مشيرا إلى أنّ هناك تحديات كبيرة تواجه جوجل من ناحية توفير سبل الوصول إلى المعلومات التي تقدم في الدورات التدريبية، إذ ستطرح جوجل دورة تعليمية أو مادة تعليمية على إحدى المنصات مثل كورسيرا، لكن الوصول إلى المنصة يتطلب إنترنت وتوفير جهاز حاسوب أو هاتف متنقل يستطيع الوصول إلى الإنترنت.
وتابع: «يجب تعاون جوجل مع جهات أخرى حتى توفر الإمكانيات للمستخدمين للوصول إلى المعلومات المقدمة عبر منصات جوجل، كما أنّنا قد ترى في المستقبل القريب أنّ مبادرات جوجل تقوم بدعم جهات أو شركات مختصة لتوفير سبل التعلم بالذكاء الاصطناعي في الدول التي تفتقر البنية التحتية المتخصصة في التعليم والتكنولوجيا».