قالت شركة «غوغل» المملوكة لألفابت، اليوم الثلاثاء، إن أداة (بارد) التابعة لها والتي تعتمد على الذكاء الاصطناعي التوليدي سيكون لديها القدرة على التحقق من صحة إجاباتها وتحليل البيانات الشخصية للمستخدمين على غوغل في الوقت الذي تسعى فيه عملاق التكنولوجيا للحاق بشعبية روبوت الدردشة (تشات جي.بي.تي).

وأدى إصدار شركة (أوبن إيه.

آي) المدعومة من مايكروسوفت لتشات جي.بي.تي إلى سباق في مجال صناعة التكنولوجيا لمنح العملاء إمكانية استخدام الذكاء الاصطناعي التوليدي. وكان تشات جي.بي.تي في ذلك الوقت هو التطبيق الأسرع نموا على الإطلاق بين المستخدمين، وهو الآن أحد أفضل 30 موقعا إلكترونيا في العالم.

إيلون ماسك يدرس فرض رسوم اشتراك شهرية على مستخدمي «إكس» منذ 5 دقائق «فايزر» تواصل رحلتها لنشر التوعية حول التهاب الجلد التأتبي وتعزيز نتائج المرضى في الكويت منذ 4 ساعات

لكن برنامج بارد لم ينطلق بالوتيرة نفسها إذ شهد في أغسطس 183 مليون زيارة أي 13 في المئة فقط مما شهده تشات جي.بي.تي، وفقا لشركة سيميلار ويب لتحليل المواقع الإلكترونية.

وفي إطار سعيها لكسب موطئ قدم في مجال الذكاء الاصطناعي، تطرح غوغل (بارد إكستنشنز) لتمكين المستخدمين من استدعاء بياناتهم من منتجات أخرى للشركة. فعلى سبيل المثال، يمكن للمستخدمين أن يطلبوا من بارد البحث في ملفاتهم على غوغل درايف أو تقديم ملخص عن الرسائل الموجودة في خدمة البريد الإلكتروني (جيميل).

وقال جاك كرافتيك كبير مديري المنتجات في غوغل إن مستخدمي بارد لن يتمكنوا في الوقت الحالي من سحب المعلومات إلا من تطبيقات الشركة، لكن غوغل تعمل مع شركات خارجية لربط تطبيقاتها ببارد في المستقبل.

وتسعى الشركة لأن يكون لبارد ميزة جديدة أخرى هي الحد من مشكلة مزعجة تواجه الذكاء الاصطناعي التوليدي ألا وهي الردود غير الدقيقة المعروفة باسم «الهلوسة». وسيتمكن المستخدمون من تحديد الأجزاء في إجابات بارد التي تختلف عن نتائج البحث على غوغل أو تتفق معها.

وأضاف كرافتيك «نقدم بارد بطريقة تعترف فيها الأداة عندما تكون غير واثقة (من المعلومات)»، موضحا أن الهدف هو بناء ثقة المستخدمين في الذكاء الاصطناعي التوليدي من خلال تحمل بارد المسؤولية عن هذا.

والميزة الثالثة الجديدة تسمح للمستخدمين بدعوة آخرين إلى المشاركة في محادثات بارد.

المصدر: الراي

كلمات دلالية: الذکاء الاصطناعی التولیدی تشات جی بی تی

إقرأ أيضاً:

مخاطر الذكاء الاصطناعي على التعليم والبحث العلمي

يحظى موضوع الذكاء الاصطناعي باهتمام واسع عبر العالم في المناقشات والمنتديات والمجادلات حول الموضوع. ولقد سبق أن تناولت هذا الموضوع في مقالين بهذه الجريدة الرصينة: أحدهما عن الذكاء الاصطناعي والإبداع، والآخر عن الذكاء الاصطناعي والترجمة. ولكن هذا الموضوع يحتمل المزيد من التأملات دائمًا، إذ إن له أبعادًا كثيرةً لا حصر لها؛ ولذلك فإنني أريد في هذا المقال التنويه إلى تأثير الذكاء الاصطناعي على العملية التعليمية والبحث العلمي.

وقد يبدو أن استخدام كلمة «تأثير» أفضل من استخدام كلمة «مخاطر» الواردة في عنوان هذا المقال؛ لأن هذه الكلمة الأخيرة قد لا تبدو محايدة، وإنما تنطوي على حكم مسبق يتخذ موقفًا متحيزًا ضد تقنيات الذكاء الاصطناعي. وهذا تفسير غير صحيح؛ لأن كلمة «مخاطر» تعني أن هناك طريقًا نسير عليه -أو ينبغي أن نسير فيه- ولكنه يكون محفوفًا بالمخاطر التي ينبغي أن ندركها لكي يمكن اجتنابها. فلا مراء في أن الذكاء الاصطناعي يمثل ثورة كبرى في المعرفة البشرية.

هذه الثورة المعرفية تتمثل في القدرة الهائلة للآلة على توفير بيانات ضخمة في أي مجال معرفي، بل يمكن لبرامج هذه الآلة أن تؤلف نصوصًا أو موضوعات بحثية أو تصمم ابتكارات ومخترعات باستخدام هذه البيانات.

ولقد أثمرت هذه الثورة المعرفية بوجه خاص في مجال تطبيقات العلوم الدقيقة، وعلى رأسها الرياضيات البحتة التي تمتد جذورها في النهاية في المنطق الرياضي، كما لاحظ ذلك برتراند رسل بشكل مدهش في مرحلة مبكرة للغاية في كتابه أصول الرياضيات!

ولا شك أيضًا في أن الذكاء الاصطناعي له استخدامات مثمرة في مجال العملية التعليمية، إذ إنه يسهِّل على المعلم والطالب معًا بلوغ المعلومات المهمة والحديثة في مجال الدراسة، ويقدِّم المعلومات للطلبة بطريقة شيقة ويشجعهم على البحث والاستكشاف بأنفسهم.

وهنا على وجه التحديد مكمن المشكلة، فعندما نقول: «إن الذكاء الاصطناعي يشجع الطلبة على البحث والاستكشاف بأنفسهم»، فإننا ينبغي أن نأخذ هذه العبارة بمعناها الدقيق، وهو أن الذكاء الاصطناعي هو ذكاء الآلة، والآلة دائمًا هي أداة للاستخدام، وبالتالي فإنها لا يمكن أن تكون بديلًا لدور المستخدِم الذي يجب أن يقوم بنفسه بالبحث والاستكشاف. وهذا يعني أن سوء استخدام الذكاء الاصطناعي والتعويل عليه في عملية التعلم، سيؤدي إلى القضاء على روح المبادرة والاكتشاف، وسيحول دون تعلم مهارات التفكير الناقد critical thinking وتنميتها من خلال عملية التفاعل المباشر بين الطلبة والمعلم. وتلك كلها مخاطر حقيقية على التعليم.

ولا تقل عن ذلك مخاطر الذكاء الاصطناعي في البحث العلمي الذي يصبح تكريسًا لسوء استخدام هذا الذكاء في مراحل التعليم المختلفة. بل إن المخاطر هنا تصبح أشد وأكثر ضررًا؛ لأنها تتعلق بتكوين باحثين وأساتذة يُرَاد لهم أو يُرجى منهم أن يكونوا علماء حقيقيين في مجالاتهم البحثية المتنوعة. ولعل أشد هذه المخاطر هو شيوع السرقات العلمية من خلال برامج الذكاء الاصطناعي التي تقوم بعملية التأليف من خلال كتابات ودراسات وبحوث منشورة؛ وهو ما قد يشجع الباحث على استخدام المادة المُقدّمة له باعتبارها من تأليفه ودون ذكر للمصادر الأصلية التي استُمدت منها هذه المادة.

حقًّا أن الذكاء الاصطناعي نفسه قد ابتكر برامج لاكتشاف السرقات العلمية (لعل أشهرها برنامج Turnitin)؛ ولكن هذا لا يمنع الباحثين الذين يفتقرون إلى أخلاقيات البحث العلمي من التحايل على مثل هذه البرامج من خلال التمويه، وذلك بتطعيم البحث بمادة موثقة من مصادرها، بحيث يبدو البحث مقبولًا في الحد الأدنى من نسبة الاقتباسات المشروعة! وهذا أمر لا ينتمي إلى البحث العلمي ولا إلى الإبداع والابتكار.

وبصرف النظر عن مسألة السرقات العلمية، فإن الاعتماد على الذكاء الاصطناعي في البحث العلمي له مخاطر أخرى تتمثل في أن المادة المقتبَسة كثيرًا ما تكون مشوهة أو غير دقيقة، وهذا يتبدى -على سبيل المثال- في حالة النصوص المقتبسة المترجَمة التي تقع في أخطاء فادحة وتقدم نصًا مشوهًا لا يفهم مقاصد المؤلف الأصلي، وهذا ما فصلت القول فيه في مقال سابق. وفضلًا عن ذلك، فإن برامج الذكاء الاصطناعي لا تخلو من التحيز (بما في ذلك التحيز السياسي)؛ ببساطة لأنها مبرمَجة من خلال البشر الذين لا يخلون من التحيز في معتقداتهم، وهذا ما يُعرف باسم «الخوارزميات المتحيزة» biased algorithms.

ما يُستفاد من هذا كله هو أن الذكاء الاصطناعي ينبغي الاستعانة به في إطار الوعي بمخاطره؛ ومن ثم بما ينبغي اجتنابه، ولعل هذا ما يمكن تسميته «بأخلاقيات الذكاء الاصطناعي»، وهي أخلاقيات ينبغي أن تَحكم برامج هذا الذكاء مثلما تَحكم المستخدم نفسه.

مقالات مشابهة

  • “غوغل” تطلق أدوات الذكاء الاصطناعي لتعلم اللغات
  • خبراء يحذِّرون: الذكاء الاصطناعي يجعل البشر أغبياء
  • إطلاق تكنولوجيا جديدة لحماية الطاقة في مراكز البيانات وتطبيقات الذكاء الاصطناعي
  • الذكاء الاصطناعي يوفّر 122 ساعة عمل سنويًا للموظفين
  • مخاطر الذكاء الاصطناعي على التعليم والبحث العلمي
  • مايكروسوفت: رئيس وكلاء الذكاء الاصطناعي وظيفة مستقبلية جديدة ستكون من نصيب الجميع
  • كِتابة جِنيّ المصباح تجارب روائية ولَّدها الذكاء الاصطناعي
  • كتَّاب عرب: لن نترك الذكاء الاصطناعي يأخذ مكاننا!
  • جامعة السوربون أبوظبي تطلق برنامج الذكاء الاصطناعي التوليدي
  • الذكاء الاصطناعي والرقمنة في العمل