غوغل تربط منتجات الشركة بأداة ذكاء اصطناعي عبر برنامج بارد
تاريخ النشر: 21st, September 2023 GMT
كشف محرك البحث الشهير "غوغل" عن إضافة أداة جديدة إلى برنامج "بارد" للذكاء الاصطناعي، تمكن المستخدمين من ربط البرنامج بباقي الخدمات الأخرى التي تقدمها الشركة، في خطوة جديدة ضمن سباق عمالقة التكنولوجيا لتطوير أدوات الذكاء الاصطناعي.
وأصبح برنامج "بارد" قادرا على الاتصال بسهولة بتطبيقات البريد الإلكتروني ومنصة يوتيوب والخرائط ورحلات الطيران والفنادق، وذلك عبر أداة توليدية ابتكرتها الشركة تدعى "ملحقات بارد - Bard Extensions".
We’re adding extensions to Bard so you can connect it to your favorite Google apps including Gmail, Drive + Docs for even deeper collaboration. We’re also updating how we validate the claims in Bard’s responses with an improved “Google It” button + more.https://t.co/whwuXoicS2 pic.twitter.com/63oEtucxTZ — Sundar Pichai (@sundarpichai) September 19, 2023
وأوضح عملاق التكنولوجيا الأمريكي أن الأداة الجديدة قادرة "على سبيل المثال، إذا كان المستخدم يخطط لرحلة إلى غراند كانيون، أن يطلب من بارد جمع التواريخ المناسبة في البريد الالكتروني (جي ميل)، والبحث عن رحلات طيران وفنادق، والتحقق من المسافة بين الوجهة والمطار في خرائط غوغل، ومشاهدة مقاطع فيديو من يوتيوب عن الأنشطة المتوافرة هناك".
وأثار إعلان الشركة مخاوف تتعلق بالخصوصية فيما يتعلق بقدرة الأداة الجديدة على الوصول إلى رسائل البريد الإلكتروني وكل المعلومات الخاصة الأخرى أو المحتوى الشخصي تقريبا على متجر غوغل، الأمر الذي يعد مصدر قلق لدى بعض المستخدمين بشأن كيفية وصول "غوغل" إلى كل هذه المعلومات وتعاملها معها.
إلى ذلك، قال مدير إدارة المنتجات في "بارد"، يوري بينسكي إن "الشركة ملتزمة بحماية المعلومات الشخصية للمستخدمين"، لافتا إلى أن المراجعين البشريون لن يتمكنوا من رؤية المحتوى الخاص بالمستخدم، كما يستطيع الأخير التحكم في إعدادات الخصوصية الخاصة بك عند تحديد كيفية استخدام هذه الملحقات".
كما أشارت الشركة إلى أن الأداة الجديدة قادرة على استخراج بيانات من "غوغل دوكس" و"غوغل درايف"، بينها مستندات بصيغة "بي دي إف"، موضحة أنها تتيح أيضا مقارنة النتائج التي يوفرها "بارد" بتلك الموجودة عبر محرك البحث "غوغل" عن الموضوع نفسه، وإبراز أي اختلاف بين النتيجتين، عبر النقر فقط "غوغل إت".
يأتي كشف "غوغل" الجديد في وقت تتصاعد فيه حدة السباق بين عمالقة الذكاء الاصطناعي، في محاولة منها إلى تخطي منافسيها الرئيسيين وهم برنامج "بينغ" من "مايكروسوفت"، و"تشات جي بي تي" من شركة "أوبين إي أي". بالإضافة إلى العديد من شركات التكنولوجيا الأخرى التي تعمل أيضا على تطوير وإطلاق روبوتات دردشة مماثلة تعمل بالذكاء الاصطناعي.
والجدير بالذكر أن برنامج "بارد" أطلقت محرك البحث الشهير لأول مرة، في آذار /مارس الماضي، على الرغم من بعض الأخطاء الأولية التي واجهها البرنامج عند عرض إمكانياته.
وجاء ذلك بعدما وجدت "غوغل" نفسها مضطرة إلى التسريع في الكشف عنه عقب النجاح الذي حققه برنامج "تشات جي بي تي" في نهاية العام المنصرم، وإطلاق محرك البحث "بينغ" الجديد من "مايكروسوفت" في شباط /فبراير الماضي.
المصدر: عربي21
كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي تكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا غوغل التكنولوجيا الذكاء الاصطناعي غوغل تكنولوجيا الذكاء الاصطناعي برنامج بارد علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تغطيات سياسة تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا سياسة اقتصاد رياضة صحافة أفكار عالم الفن تكنولوجيا صحة محرک البحث
إقرأ أيضاً:
مخاطر الذكاء الاصطناعي على التعليم والبحث العلمي
يحظى موضوع الذكاء الاصطناعي باهتمام واسع عبر العالم في المناقشات والمنتديات والمجادلات حول الموضوع. ولقد سبق أن تناولت هذا الموضوع في مقالين بهذه الجريدة الرصينة: أحدهما عن الذكاء الاصطناعي والإبداع، والآخر عن الذكاء الاصطناعي والترجمة. ولكن هذا الموضوع يحتمل المزيد من التأملات دائمًا، إذ إن له أبعادًا كثيرةً لا حصر لها؛ ولذلك فإنني أريد في هذا المقال التنويه إلى تأثير الذكاء الاصطناعي على العملية التعليمية والبحث العلمي.
وقد يبدو أن استخدام كلمة «تأثير» أفضل من استخدام كلمة «مخاطر» الواردة في عنوان هذا المقال؛ لأن هذه الكلمة الأخيرة قد لا تبدو محايدة، وإنما تنطوي على حكم مسبق يتخذ موقفًا متحيزًا ضد تقنيات الذكاء الاصطناعي. وهذا تفسير غير صحيح؛ لأن كلمة «مخاطر» تعني أن هناك طريقًا نسير عليه -أو ينبغي أن نسير فيه- ولكنه يكون محفوفًا بالمخاطر التي ينبغي أن ندركها لكي يمكن اجتنابها. فلا مراء في أن الذكاء الاصطناعي يمثل ثورة كبرى في المعرفة البشرية.
هذه الثورة المعرفية تتمثل في القدرة الهائلة للآلة على توفير بيانات ضخمة في أي مجال معرفي، بل يمكن لبرامج هذه الآلة أن تؤلف نصوصًا أو موضوعات بحثية أو تصمم ابتكارات ومخترعات باستخدام هذه البيانات.
ولقد أثمرت هذه الثورة المعرفية بوجه خاص في مجال تطبيقات العلوم الدقيقة، وعلى رأسها الرياضيات البحتة التي تمتد جذورها في النهاية في المنطق الرياضي، كما لاحظ ذلك برتراند رسل بشكل مدهش في مرحلة مبكرة للغاية في كتابه أصول الرياضيات!
ولا شك أيضًا في أن الذكاء الاصطناعي له استخدامات مثمرة في مجال العملية التعليمية، إذ إنه يسهِّل على المعلم والطالب معًا بلوغ المعلومات المهمة والحديثة في مجال الدراسة، ويقدِّم المعلومات للطلبة بطريقة شيقة ويشجعهم على البحث والاستكشاف بأنفسهم.
وهنا على وجه التحديد مكمن المشكلة، فعندما نقول: «إن الذكاء الاصطناعي يشجع الطلبة على البحث والاستكشاف بأنفسهم»، فإننا ينبغي أن نأخذ هذه العبارة بمعناها الدقيق، وهو أن الذكاء الاصطناعي هو ذكاء الآلة، والآلة دائمًا هي أداة للاستخدام، وبالتالي فإنها لا يمكن أن تكون بديلًا لدور المستخدِم الذي يجب أن يقوم بنفسه بالبحث والاستكشاف. وهذا يعني أن سوء استخدام الذكاء الاصطناعي والتعويل عليه في عملية التعلم، سيؤدي إلى القضاء على روح المبادرة والاكتشاف، وسيحول دون تعلم مهارات التفكير الناقد critical thinking وتنميتها من خلال عملية التفاعل المباشر بين الطلبة والمعلم. وتلك كلها مخاطر حقيقية على التعليم.
ولا تقل عن ذلك مخاطر الذكاء الاصطناعي في البحث العلمي الذي يصبح تكريسًا لسوء استخدام هذا الذكاء في مراحل التعليم المختلفة. بل إن المخاطر هنا تصبح أشد وأكثر ضررًا؛ لأنها تتعلق بتكوين باحثين وأساتذة يُرَاد لهم أو يُرجى منهم أن يكونوا علماء حقيقيين في مجالاتهم البحثية المتنوعة. ولعل أشد هذه المخاطر هو شيوع السرقات العلمية من خلال برامج الذكاء الاصطناعي التي تقوم بعملية التأليف من خلال كتابات ودراسات وبحوث منشورة؛ وهو ما قد يشجع الباحث على استخدام المادة المُقدّمة له باعتبارها من تأليفه ودون ذكر للمصادر الأصلية التي استُمدت منها هذه المادة.
حقًّا أن الذكاء الاصطناعي نفسه قد ابتكر برامج لاكتشاف السرقات العلمية (لعل أشهرها برنامج Turnitin)؛ ولكن هذا لا يمنع الباحثين الذين يفتقرون إلى أخلاقيات البحث العلمي من التحايل على مثل هذه البرامج من خلال التمويه، وذلك بتطعيم البحث بمادة موثقة من مصادرها، بحيث يبدو البحث مقبولًا في الحد الأدنى من نسبة الاقتباسات المشروعة! وهذا أمر لا ينتمي إلى البحث العلمي ولا إلى الإبداع والابتكار.
وبصرف النظر عن مسألة السرقات العلمية، فإن الاعتماد على الذكاء الاصطناعي في البحث العلمي له مخاطر أخرى تتمثل في أن المادة المقتبَسة كثيرًا ما تكون مشوهة أو غير دقيقة، وهذا يتبدى -على سبيل المثال- في حالة النصوص المقتبسة المترجَمة التي تقع في أخطاء فادحة وتقدم نصًا مشوهًا لا يفهم مقاصد المؤلف الأصلي، وهذا ما فصلت القول فيه في مقال سابق. وفضلًا عن ذلك، فإن برامج الذكاء الاصطناعي لا تخلو من التحيز (بما في ذلك التحيز السياسي)؛ ببساطة لأنها مبرمَجة من خلال البشر الذين لا يخلون من التحيز في معتقداتهم، وهذا ما يُعرف باسم «الخوارزميات المتحيزة» biased algorithms.
ما يُستفاد من هذا كله هو أن الذكاء الاصطناعي ينبغي الاستعانة به في إطار الوعي بمخاطره؛ ومن ثم بما ينبغي اجتنابه، ولعل هذا ما يمكن تسميته «بأخلاقيات الذكاء الاصطناعي»، وهي أخلاقيات ينبغي أن تَحكم برامج هذا الذكاء مثلما تَحكم المستخدم نفسه.