الذكاء الاصطناعي وغوغل.. نتائج البحث الأولى قد تكون خاطئة
تاريخ النشر: 19th, February 2024 GMT
"عندما أردت تبديل حساب "غوغل" الذي أستخدمه لبريدي الإلكتروني، كتبت سؤالا في نطاق البحث على غوغل عن كيفية تغيير الحساب الأساسي".
و"قادتني النتيجة الأولى لعملية البحث إلى مقال منشور على موقع "لينكد إن" يشير إلى أنه كتبته مورغن ميتشل بصورة لها وبتعريف لها على أنها مديرة المحتوى في شركة "أدوبي".
ولميتشل حوالي 150 مقالة مكتوبة جميعها على شكل سؤال وجواب تتضمن حلولا لمشكلات معقدة لمستخدمين غير بارعين في استخدام التكنولوجيا متضمنة الكثير من أرقام هواتف خدمة العملاء.
المشكلة هي أن ميتشل غير موجودة أساسا، وأرقام الهواتف الموجودة في المقالات لا تنتمي لأي من شركات التكنولوجيا مثل "غوغل" أو "أدوبي".
من المحتمل أن تكون ميتشل مجرد نسج من خيال الذكاء الاصطناعي، والأرقام وسيلة لخداع المستخدمين.
كان هذا مثال أبرزه مقال لصحيفة وول ستريت جورنال بشأن عمليات البحث المضللة التي ازدادت مؤخرا على "غوغل".
وتقول الصحيفة إن مرسلي البريد العشوائي يستخدمون أدوات الذكاء الاصطناعي لإنشاء فيض كبير من المحتوى، وتقوم خوارزميات" غوغل" بترتيب بعض تلك الصفحات التي ينشئها الروبوت قبل المعلومات التي قد يحتاجها المستخدم بالفعل.
وهذه الأدوات تضاف إلى حيل كثيرة أخرى تفسد عمليات البحث مثل الإعلانات المضللة ومواقع الويب منخفضة الجودة المصممة للظهور أعلى صفحة النتائج.
وفي أحسن الأحوال، تعطلك هذه النتائج عن الوصول لمرادك سريعا، وفي أسوأها، يمكن أن تقودك إلى عمليات احتيال تهدف إلى الحصول على رقم بطاقتك الائتمانية وغيرها من المعلومات الشخصية.
ورغم ذلك، قال متحدث باسم "غوغل" إنه "في تحليل مستقل، فإن نتائج متصفح غوغل أعلى جودة من نتائج محركات البحث المنافسة".
وأضاف أن "أنظمة مكافحة البريد العشوائي لدينا تساعد في الحفاظ على البحث خاليا من البريد العشوائي بنسبة 99 في المئة"، مضيفا أن الشركة تقوم بمراجعة تعليقات المستخدمين وتحديث أداة البحث آلاف المرات سنويا.
ويمثل غوغل أكثر من 91 في المئة من عمليات البحث على مستوى العالم ومعظمنا يستخدمه يوميا، وربما يكون بالفعل أكثر موثوقية من البدائل، لكن هذا لا يعني أن هناك الكثير من المشاكل المرتبطة بالذكاء الاصطناعي التي تزيد الفوضى في عمليات البحث.
ويحظر غوغل المحتوى الذي يتم إنتاجه بكميات كبيرة والذي يهدف إلى الاستحواذ على نتائج البحث، حيث يبحث عن مرسلي البريد العشوائي الذين يستخدمون البرامج لإنشاء محتوى مضلل مملوء بالكلمات الرئيسية.
ومع ذلك، فإن المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي لا ينتهك بالضرورة قواعد البريد العشوائي الخاصة بـ"غوغل"، بمعنى أنه إذا كان المحتوى الذي أنتجه الذكاء الاصطناعي جيدا بما فيه الكفاية، فيمكن أن يظهر في البحث.
فعلى سبيل المثال بمساعدة "تشات جي بي تي"، تقوم أداة "إيتيفاي" بإنشاء ملخصات نصية وأسئلة وأجوبة من مقاطع فيديو يتم نشرها على يوتيوب.
وقال مؤسس "إيتيفاي"، أليكس كاتاييف، إن الشركة لا تتحقق من صحة كل مقالة، ولكنها تتحقق من المقالات الأكثر شعبية، بالإضافة إلى تلك التي تم الإبلاغ عنها من قبل المستخدمين.
وقال كاتاييف: "لسوء الحظ، انتشار المعلومات الخاطئة لا يرجع إلى استخدام الذكاء الاصطناعي. نحن نعتمد على يوتيوب، وهو غالبا ما يكون مقصرا".
وقالت متحدثة باسم "يوتيوب" إن الشركة لا تسمح بالمحتوى المضلل أو الخادع الذي يشكل "خطرا جسيما"، وتزيل مقاطع الفيديو التي تنتهك هذه السياسة.
وإذا بحثت عن "أعراض الأنفلونزا"، ستظهر لك معلومات من موقع مراكز السيطرة على الأمراض والوقاية منها، متبوعة برابط لمزيد من المعلومات من تلك الوكالة، لكن خوارزميات "غوغل" قد تحيلك أحيانا إلى مصادر أخرى أقل موثوقية.
وفي شهر يناير، أدرك مشتخدم يدعى لوان سانتوس أن اسم زوجته به خطأ إملائي في حجز رحلة جوية مع شركة دلتا.
وقام ببحث سريع على "غوغل" عن رقم خدمة عملاء الشركة واتصل بأول رقم ظهر له وقدم رقم تأكيد الحجز ثم سُئل عن الاسم الأخير لزوجته، ورقم يطاقة الائتمان لإجراء تغيير على الرحلة.
وفي تلك المرحلة، لاحظ أن عنوان الموقع لا يشير إلى موقع دلتا الرسمي، فأغلق الخط على الفور خوفا من عملية احتيال. وأصبح من حينها أقل ثقة في غوغل.
تأكد سانتوس بعد ذلك أن الرقم الذي اتصل به لشخص لا ينتمي إلى شركة الطيران.
وعند البحث عن تطبيق "تشات جي بي تي"، تحيلك النتائج الأولى إلى موقع يقدم نفس البرامج المتاحة مجانا، لكن مع مطالبتك بدفع رسوم 20 دولارا شهريا.
ويقول مستخدمون تم النصب عليهم من هذا الموقع إنهم لم يتمكنوا من استرداد المبالغ التي دفعوها بعد اكتشافهم أن البرنامج مجاني بالفعل وأنه لا علاقة بشركة "أوبن أيه آي" التي أسست "تشات جي بي تي".
وقال المتحدث باسم "غوغل" إن الشركة تحظر الإعلانات التي توزع برامج ضارة أو تسعى إلى خداع المستخدمين، وتقوم بإزالة مليارات الإعلانات كل عام التي تنتهك شروطها.
وعلى أي حال، فإنه مهما كان ما تبحث عنه، تحقق مما إذا كان الرابط مرجعا في هذا الموضوع.
وإذا كنت تبحث عن خدمة العملاء أو معلومات عن منتج محدد، فابدأ بالموقع الإلكتروني للشركة، ومن المحتمل أن تحصل على أفضل البيانات مباشرة من المصدر.
المصدر: الحرة
كلمات دلالية: الذکاء الاصطناعی البرید العشوائی عملیات البحث
إقرأ أيضاً:
الذكاء الاصطناعي والدخول إلى خصوصيات البشر
#الذكاء_الاصطناعي والدخول إلى #خصوصيات_البشر
أ.د رشيد عبّاس
منذُ أكثر من عامين كنتُ قد كبتُ أكثر من مقال حول الذكاء الاصطناعي من حيث تقنيته وخوارزمياته, ومن حيث أقسامه وادواته وآليات عمله, وصولاً إلى تطبيقاته المتنامية في جميع جوانب الحياة البشرية, وتوقفتُ عند خطورة الجانب الأخلاقي له ببعديه المادي والمعنوي على حياة البشر.
تبدو خطورة الذكاء الاصطناعي من عدم وجود تشريعات وقوانين ضابطة له, الأمر الذي جعل مبدأ المسائلة معطّل تماماً, وجعل أيضاُ انضباط الجانب الأخلاقي والجانب الإنساني في هذا الذكاء منعدم إلى حد ما, فضلاً عن خصوصية حياة البشر باتت متاحة وتحت رحمة التحول الرقمي لخوارزميات ولوغرتمات الذكاء الاصطناعي وأقتراناته الاسية.
مقالات ذات صلة نجاح اداره البنك المركزي في حمايه الائتمان المالي ودعم بيئهً الاستثمار في الاردن 2025/03/15لقد تجاوز الذكاء الاصطناعي كونه قادراً على التحكم في جميع شؤون مجالات حياة البشر, وقادراً على احتلال آلاف الوظائف التي كان وما زال يقوم بها البشر والتي تُنذر بالاستغناء عن هؤلاء البشر, لنصل بعد ذلك ومن خلال الجيل الخامس من هذا الذكاء إلى نقطة مُقلقة تتمثل بضرب البشر بعضهم ببعض اجتماعياً, واختراق خصوصياتهم دون أية مراعاة للجانب الأخلاقي والإنساني سواء بسواء.
رواد الذكاء الاصطناعي (إيلون ماسك, سام إلتمان, جفري هينتون,..) وصولوا إلى نقطة خطيرة للغاية تتمثل في إمكانية أن تعطي الروبوتات أوامر معينة لبعضها البعض دون تدخل البشر فيها, وأبعد من ذلك وصولوا إلى مرحلة متقدمة في توجيه طائرات الدراون تعليمات معينة لبعضها البعض في غياب تحكم البشر فيها.. وفي نفس الوقت أبقوا على الجانب الأخلاقي والجانب الإنساني دون تشريعات وقوانين ناظمة تحترم وتراعي خصوصيات البشر, بالذات في الجانب الشعوري للإنسان, الأمر الذي فتح الباب على مصرعيه أمام الكثيرين للدخول إلى خصوصيات البشر وأسرارهم والتلاعب فيها كإضافة أو حذف محتوى معين, أو تشوية الصوت والصورة, وذلك من خلال التلاعب في تركيب الاصوات والصور معاً.
اليوم ومن خلال خوارزميات ولوغرتمات الذكاء الاصطناعي وأقتراناته الأسية قد تشاهد فيديو لزوجتك في سرير رجل غريب, وقد يُنقل عنك عبر فيديو حديث غير لائق لم تقله عن شخص ما, وقد تشاهد فيديو لمشاجرة أب لك مع جار له, وأكثر من ذلك قد تشاهد حادث اصطدام سيارة ابنك في عمود كهرباء, لا بل هناك امكانية خوارزميات ولوغرتمات الذكاء الاصطناعي وأقتراناته الاسية أن تشاهد بنتك تغني بلباس فاضح على مسرح كبير يعج بالحضور من الرجال في احد المناسبات.
الأمر قد يبدو هنا مضحكاً, فقد يأتوا بمذيع اخبار معروف ويجعلوه يعلن خبر مزعج ويترتب عليه مشاكل اجتماعية عديدة, وقد يجعلوك تقود سيارة نفايات في احدى المدن وتتوقف عند الحاويات فيها, ثم هناك امكانية عالية لدى الذكاء الاصطناعي بجعلك جزاراً تقوم بتقطيع اللحوم وبيعها على الزبون, وقد يأتوا بصاحب عمامة كبيرة ليفتي بقضية عليها خلاف ديني معين.. نعم قد يجعلوا منك رجلاً متسولاً في احدى الزقاق.
والحال هكذا سيجد العالم نفسه أمام ذكاء الاصطناعي لديه القدرة على إيقاع الفتن بين أفراد البشر حاكمين ومحكومين وضربهم ببعضهم البعض دون أية ضوابط تُذكر, والعمل على اختراق خصوصياتهم دون أية مراعاة للجانب الأخلاقي والإنساني في ذلك, في الوقت الذي فيه ما هو عيب/ مُحرّم في مكان ما, قد يكون ليس عيباً/ ومُحلّل في مكان ما آخر.
ولعدم وجود تشريعات وقوانين ناظمة للذكاء الاصطناعي ستكون المجتمعات أمام مشكلات وخلافات اجتماعية وأيدولوجية عديدة, يصعب إيجاد حلول لها, وللخروج من هذه التحديات, لا بد من تفعيل مبدأ المساءلة, في ظل وجود تشريعات وقوانين ناظمة, تحترم خصوصيات البشر, وتراعي الجانب الأخلاقي والجانب الإنساني لهم.. كيف لا والذكاء الاصطناعي سيكون عابر لجميع المجتمعات, في الوقت الذي فيه خصوصية اجتماعية وأيدولوجية لكل مجتمع من هذه المجتمعات.