مأرب برس:
2025-04-26@11:02:35 GMT

الذكاء الإصطناعي يضرب غوغل ويجعل نتائج البحث خاطئة

تاريخ النشر: 21st, February 2024 GMT

الذكاء الإصطناعي يضرب غوغل ويجعل نتائج البحث خاطئة

"عندما أردت تبديل حساب "غوغل" الذي أستخدمه لبريدي الإلكتروني، كتبت سؤالا في نطاق البحث على غوغل عن كيفية تغيير الحساب الأساسي".

و"قادتني النتيجة الأولى لعملية البحث إلى مقال منشور على موقع "لينكد إن" يشير إلى أنه كتبته مورغن ميتشل بصورة لها وبتعريف لها على أنها مديرة المحتوى في شركة "أدوبي".

ولميتشل حوالي 150 مقالة مكتوبة جميعها على شكل سؤال وجواب تتضمن حلولا لمشكلات معقدة لمستخدمين غير بارعين في استخدام التكنولوجيا متضمنة الكثير من أرقام هواتف خدمة العملاء.

المشكلة هي أن ميتشل غير موجودة أساسا، وأرقام الهواتف الموجودة في المقالات لا تنتمي لأي من شركات التكنولوجيا مثل "غوغل" أو "أدوبي".

من المحتمل أن تكون ميتشل مجرد نسج من خيال الذكاء الاصطناعي، والأرقام وسيلة لخداع المستخدمين.

كان هذا مثال أبرزه مقال لصحيفة وول ستريت جورنال بشأن عمليات البحث المضللة التي ازدادت مؤخرا على "غوغل".

وتقول الصحيفة إن مرسلي البريد العشوائي يستخدمون أدوات الذكاء الاصطناعي لإنشاء فيض كبير من المحتوى، وتقوم خوارزميات" غوغل" بترتيب بعض تلك الصفحات التي ينشئها الروبوت قبل المعلومات التي قد يحتاجها المستخدم بالفعل.

وهذه الأدوات تضاف إلى حيل كثيرة أخرى تفسد عمليات البحث مثل الإعلانات المضللة ومواقع الويب منخفضة الجودة المصممة للظهور أعلى صفحة النتائج.

وفي أحسن الأحوال، تعطلك هذه النتائج عن الوصول لمرادك سريعا، وفي أسوأها، يمكن أن تقودك إلى عمليات احتيال تهدف إلى الحصول على رقم بطاقتك الائتمانية وغيرها من المعلومات الشخصية.

ورغم ذلك، قال متحدث باسم "غوغل" إنه "في تحليل مستقل، فإن نتائج متصفح غوغل أعلى جودة من نتائج محركات البحث المنافسة".

وأضاف أن "أنظمة مكافحة البريد العشوائي لدينا تساعد في الحفاظ على البحث خاليا من البريد العشوائي بنسبة 99 في المئة"، مضيفا أن الشركة تقوم بمراجعة تعليقات المستخدمين وتحديث أداة البحث آلاف المرات سنويا.

ويمثل غوغل أكثر من 91 في المئة من عمليات البحث على مستوى العالم ومعظمنا يستخدمه يوميا، وربما يكون بالفعل أكثر موثوقية من البدائل، لكن هذا لا يعني أن هناك الكثير من المشاكل المرتبطة بالذكاء الاصطناعي التي تزيد الفوضى في عمليات البحث.

ويحظر غوغل المحتوى الذي يتم إنتاجه بكميات كبيرة والذي يهدف إلى الاستحواذ على نتائج البحث، حيث يبحث عن مرسلي البريد العشوائي الذين يستخدمون البرامج لإنشاء محتوى مضلل مملوء بالكلمات الرئيسية.

ومع ذلك، فإن المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي لا ينتهك بالضرورة قواعد البريد العشوائي الخاصة بـ"غوغل"، بمعنى أنه إذا كان المحتوى الذي أنتجه الذكاء الاصطناعي جيدا بما فيه الكفاية، فيمكن أن يظهر في البحث.

فعلى سبيل المثال بمساعدة "تشات جي بي تي"، تقوم أداة "إيتيفاي" بإنشاء ملخصات نصية وأسئلة وأجوبة من مقاطع فيديو يتم نشرها على يوتيوب.

وقال مؤسس "إيتيفاي"، أليكس كاتاييف، إن الشركة لا تتحقق من صحة كل مقالة، ولكنها تتحقق من المقالات الأكثر شعبية، بالإضافة إلى تلك التي تم الإبلاغ عنها من قبل المستخدمين.

وقال كاتاييف: "لسوء الحظ، انتشار المعلومات الخاطئة لا يرجع إلى استخدام الذكاء الاصطناعي. نحن نعتمد على يوتيوب، وهو غالبا ما يكون مقصرا".

وقالت متحدثة باسم "يوتيوب" إن الشركة لا تسمح بالمحتوى المضلل أو الخادع الذي يشكل "خطرا جسيما"، وتزيل مقاطع الفيديو التي تنتهك هذه السياسة.

وإذا بحثت عن "أعراض الأنفلونزا"، ستظهر لك معلومات من موقع مراكز السيطرة على الأمراض والوقاية منها، متبوعة برابط لمزيد من المعلومات من تلك الوكالة، لكن خوارزميات "غوغل" قد تحيلك أحيانا إلى مصادر أخرى أقل موثوقية.

وفي شهر يناير، أدرك مشتخدم يدعى لوان سانتوس أن اسم زوجته به خطأ إملائي في حجز رحلة جوية مع شركة دلتا.

وقام ببحث سريع على "غوغل" عن رقم خدمة عملاء الشركة واتصل بأول رقم ظهر له وقدم رقم تأكيد الحجز ثم سُئل عن الاسم الأخير لزوجته، ورقم يطاقة الائتمان لإجراء تغيير على الرحلة.

وفي تلك المرحلة، لاحظ أن عنوان الموقع لا يشير إلى موقع دلتا الرسمي، فأغلق الخط على الفور خوفا من عملية احتيال. وأصبح من حينها أقل ثقة في غوغل.

تأكد سانتوس بعد ذلك أن الرقم الذي اتصل به لشخص لا ينتمي إلى شركة الطيران.

وعند البحث عن تطبيق "تشات جي بي تي"، تحيلك النتائج الأولى إلى موقع يقدم نفس البرامج المتاحة مجانا، لكن مع مطالبتك بدفع رسوم 20 دولارا شهريا.

ويقول مستخدمون تم النصب عليهم من هذا الموقع إنهم لم يتمكنوا من استرداد المبالغ التي دفعوها بعد اكتشافهم أن البرنامج مجاني بالفعل وأنه لا علاقة بشركة "أوبن أيه آي" التي أسست "تشات جي بي تي''.

وقال المتحدث باسم "غوغل" إن الشركة تحظر الإعلانات التي توزع برامج ضارة أو تسعى إلى خداع المستخدمين، وتقوم بإزالة مليارات الإعلانات كل عام التي تنتهك شروطها.

وعلى أي حال، فإنه مهما كان ما تبحث عنه، تحقق مما إذا كان الرابط مرجعا في هذا الموضوع.

وإذا كنت تبحث عن خدمة العملاء أو معلومات عن منتج محدد، فابدأ بالموقع الإلكتروني للشركة، ومن المحتمل أن تحصل على أفضل البيانات مباشرة من المصدر.

المصدر: مأرب برس

كلمات دلالية: البرید العشوائی عملیات البحث

إقرأ أيضاً:

بتشويه «فوضى الذكاء الاصطناعي» للواقع يمضي العالم إلى كارثة

تهيمن قناتان متوازيتان للصور على استهلاكنا البصري اليومي. في إحداهما، صور ولقطات حقيقية للعالم كما نعرفه، ففيها سياسة ورياضة وأخبار وترفيه. وفي الثانية، فوضى الذكاء الاصطناعي [أو ما يعرف بـ AI slop]، بمحتوى متواضع الجودة ليس فيه من الإسهام البشري إلا الحد الأدنى. بعض ما فيه تافه الشأن عديم المعنى، لا يعدو صورا كرتونية لمشاهير، ومناظر طبيعية خيالية، وحيوانات ذات سمات بشرية. وبعضه الآخر عرض خادش للحياء...ففيه تجد حبيبات افتراضيات لا يمكن أن تتفاعل معهن تفاعلا حقيقيا. ونطاق هذا المحتوى وحجمه مذهلان، فهو يتسرب إلى كل شيء، من صفحات التواصل الاجتماعي إلى الرسائل المتداولة على واتساب. فلا تكون النتيجة محض تشويش على الواقع، وإنما هي تشويه له.

وفي فوضى الذكاء الاصطناعي شيء جديد هو الخيال السياسي اليميني. فعلى موقع يوتيوب مقاطع فيديو كاملة ذات سيناريوهات مختلقة ينتصر فيها مسؤولو ترامب على القوى الليبرالية. وقد استغل حساب البيت الأبيض على منصة إكس صيحة إنشاء صور بأسلوب استوديو جيبلي، ونشر صورة لامرأة من الدومينيكان تبكي أثناء تعرضها للاعتقال على يد إدارة الهجرة والجمارك (ICE). والواقع أن السخرية السياسية باستعمال الذكاء الاصطناعي قد انتشرت على مستوى العالم.

فهناك مقاطع فيديو صينية من إنتاج الذكاء الاصطناعي تسخر من العمال الأمريكيين البدناء وهم يقفون في خطوط التجميع بعد إعلان التعريفات الجمركية، وقد أثارت هذه المقاطع سؤالا موجها للمتحدثة باسم البيت الأبيض الأسبوع الماضي وردا منها. فقد قالت المتحدثة: إن هذه مقاطع أنتجها من «لا يرون إمكانات العامل الأمريكي». ولإثبات مدى انتشار فوضى الذكاء الاصطناعي، كان علي أن أتأكد ثلاث مرات من أنه حتى هذا الرد نفسه لم يكن في حد ذاته محتوى ذكاء اصطناعي منفذا على عجل مختلقا خدعة أخرى لأعداء ترامب.

وليس الدافع إلى تسييس الذكاء الاصطناعي بالأمر الجديد، فهو ببساطة امتداد للبروباجندا المعهودة. ولكن الجديد هو مدى ديمقراطيته وانتشاره، وأنه لا يحتوي أشخاصا حقيقيين ويخلو من قيود الحياة الواقعية المادية، فيوفر بذلك ما لا حصر له من السيناريوهات الخيالية.

وانتشار محتوى الذكاء الاصطناعي عبر قنوات الدردشة الضخمة عظيمة الحضور، من قبيل واتساب، يعني غياب أي ردود أو تعليقات تشكك في صحته. فكل ما تتلقاه ينعم بسلطة من ثقتك في الشخص الذي أرسله إليك. لذلك أخوض صراعا دائما مع قريبة لي كبيرة السن، مطلعة على عالم الإنترنت، تتلقى سيلا من محتوى الذكاء الاصطناعي على واتساب بشأن حرب السودان وتصدقه. تبدو الصور ومقاطع الفيديو حقيقية بالنسبة لها، وترد إليها موجهة من أشخاص تثق فيهم. ويصعب على المرء حتى أن يستوعب قدرة التكنولوجيا على إنتاج محتوى يبدو حقيقيا إلى هذه الدرجة.

وبإضافة هذه القدرة إلى توافق المحتوى مع رغبات قريبتي السياسية، ستجد نفسك متعلقا به إلى حد بعيد، حتى لو اعتراك بعض من الشك فيه. فوسط الكم الهائل من القطط [في بعض الفيديوهات المختلقة]، يجري استعمال الذكاء الاصطناعي في خلق سيناريوهات سياسية، وتحسينها والوصول بها إلى درجة الكمال عبر تقديمها بلغة بصرية تؤجج الرغبة في الانتصار أو تعتمد على الشعور بالحنين.

يشير البروفيسور رولاند ماير، الباحث في الإعلام والثقافة البصرية، إلى «موجة حديثة من الصور المولدة بالذكاء الاصطناعي لعائلات بيضاء شقراء، تطرحها حسابات إلكترونية فاشية جديدة بوصفها نماذج لمستقبل مشرق». وهو لا يعزو ذلك إلى اللحظة السياسية الراهنة فحسب، وإنما إلى أن «الذكاء الاصطناعي التوليدي محافظ بطبيعته، بل ويقوم على حنين إلى الماضي». فالذكاء الاصطناعي التوليدي يقوم على بيانات مسبقة أثبتت الأبحاث أنها بيانات متحيزة بطبيعتها ضد التنوع العرقي، والأدوار الجندرية والميول الجنسية التقدمية، فتأتي منتجات الذكاء الصناعي بتركيز كبير على هذه المعايير.

يمكن أن نرى الأمر نفسه في محتوى «الزوجة التقليدية» [“trad wife”]، الذي لا يقدم ربات البيوت الجميلات الخاضعات فحسب، وإنما يقدم عالما رجعيا كاملا لينغمس فيه الرجال. وتغص جداول موقع إكس بنوع من المواد الإباحية غير الجنسية، حيث تلمع على الشاشة صور الذكاء الاصطناعي لنساء يوصفن بالحسن والخصوبة والخضوع. ويجري طرح سيادة البيض والاستبداد وتقديس التراتبيات الهرمية في العرق والجندر بوصفها سلة متكاملة من الحنين إلى ماض موهوم. فبات الذكاء الاصطناعي يوصف بالفعل بأنه جمالية الفاشية الجديدة.

لكن الأمر لا يكون دائما على هذا القدر من التماسك. ففي معظم الأحيان، لا تعدو فوضى الذكاء الاصطناعي محتوى فيه بعض المبالغة أو الإثارة بما يغري على التفاعل، ويوفر لمبدعيه فرصة ربح المال من المشاركات والتعليقات وما إلى ذلك. وقد تبين للصحفي ماكس ريد أن فوضى الذكاء الاصطناعي على فيسبوك ـ وهي الفوضى الكبرى على الإطلاق ـ ليست «محض محتوى غير مرغوب فيه» من وجهة نظر فيسبوك، وإنما هي «ما تريده الشركة بالضبط: فهي محتوى شديد الجاذبية». والمحتوى بالنسبة لعمالقة التواصل الاجتماعي هو المحتوى، فكلما كان أرخص، وقلت فيه الحاجة إلى جهد بشري، فذلك أفضل. وتكون النتيجة أن يتحول الإنترنت إلى إنترنت الروبوتات التي تدغدغ مشاعر المستخدمين البشريين وتؤجج فيهم أي أحاسيس أو عواطف تبقيهم منشغلين.

ولكن بغض النظر عن نوايا مبتكريه، يؤدي هذا السيل من محتوى الذكاء الاصطناعي إلى فقدان الإحساس بالواقعية وإرهاق الحواس البصرية. والتأثير العام لدوام التعرض لصور الذكاء الاصطناعي، ما كان منها تافها أو مهدئا أو أيديولوجيا، هو أن كل شيء يبدأ في اتخاذ مسار مختلف. ففي العالم الواقعي، يقف الساسة الأمريكيون خارج أقفاص سجن الترحيل. وتنصب الأكمنة لطلاب الجامعات الأمريكية في الشوارع ليجري إبعادهم. ويحترق أهل غزة أحياء. وتمضي هذه الصور والفيديوهات مع سيل لانهائي من الصور والفيديوهات الأخرى التي تنتهك القوانين المادية والأخلاقية. فتكون النتيجة ارتباكا عميقا. ولا يعود بوسعك أن تصدق عينيك، ولكن ما الذي يمكن أن تصدقه إن لم تصدق عينيك؟ فكل شيء يبدو حقيقيا للغاية وغير واقعي بالمرة، في آن واحد.

أضف إلى هذا ما نعرفه من التبسيط الضروري والإيجاز المستفز في (اقتصاد الانتباه)، وإذا بك في سيرك ضخم من التجاوزات. فحتى عندما يكون المحتوى شديد الجدية، يجري تقديمه بوصفه ترفيها، أو فاصلا، أشبه بنسخة مرئية من موسيقى المصاعد. فهل أفزعك هجوم دونالد ترامب وجيه دي فانس على زيلينسكي؟ حسنا، إليك رسم مصمم بالذكاء الاصطناعي لفانس في هيئة رضيع عملاق. تشعر بالتوتر والإرهاق؟ فها هو بلسم للعين في كوخ فيه نار موقدة والثلج يتساقط في الخارج. ولسبب ما، قرر فيسبوك أنني بحاجة إلى رؤية تيار مستمر من الشقق الصغيرة اللطيفة مع تنويعات من التعليقات التوضيحية مفادها أن «هذا هو كل ما أحتاج إليه».

وتؤدي التحورات السريعة للخوارزميات إلى إمداد المستخدمين بمزيد مما حصدته لهم معتبرة أنه مثير لاهتمامهم. والنتيجة هي أنه يستحيل ترشيد ذلك الاستهلاك حتى لأكثر المستخدمين اتزانا. لأنك تزداد انغماسا في عوالم ذاتية بدلا من الواقع الموضوعي. فتكون النتيجة انفصالا شديد الغرابة. ويضعف الشعور بالقلق والحاجة إلى العمل الذي ينبغي أن يوحي به عالمنا الممزق، وذلك بسبب طريقة عرض المعلومات. وإذن فها هي طريقة جديدة لكي نسير نياما نحو الكارثة وهي طريقة لا تقوم على نقص المعرفة، وإنما تنشأ بسبب الشلل الناجم عن تمرير كل شيء من خلال هذا النظام المشوه، فهو محض جزء آخر من العرض البصري المبالغ فيه.

مقالات مشابهة

  • الرئيس الصيني يحذر من مخاطر مرتبطة بالذكاء الاصطناعي
  • الرئيس الصيني: الذكاء الاصطناعي سيغير أسلوب الحياة البشرية بشكل جذري
  • يوتيوب تدعم ميزة البحث بالذكاء الاصطناعي
  • لطافتك تكلف الذكاء الاصطناعي الملايين!
  • جهاز ذكي يساعد المكفوفين على التنقل باستخدام الذكاء الاصطناعي
  • غوغل تدفع لشركة سامسونغ أموالا طائلة مقابل تثبيت تطبيق جيميناي على هواتفها
  • كيف تعمل من المنزل باستخدام الذكاء الاصطناعي؟
  • أوبن إيه آي تخطط لشراء متصفح كروم من غوغل بعد تعثرها في المحكمة
  • يساعدك في اتخاذ القرار.. كيف يغيّر الذكاء الاصطناعي صورة الإنسان عن نفسه؟
  • بتشويه «فوضى الذكاء الاصطناعي» للواقع يمضي العالم إلى كارثة