Gemini "جيميني" اسم مجموعة نماذج الذكاء الاصطناعي الخاصة بجوجل، باتت محل اهتمام الملايين حول العالم والاكثر بحثًا اليوم، عقب إعلان جوجل عن تغيير كبير في علامتها التجارية لبرنامج الدردشة الآلي ومساعد الذكاء الاصطناعي "Bard" بارد.

وكانت جوجل أعلنت مؤخرًا عن تغيير في "بارد"، حيث اطلقت عليه اسم جيميني، وشملت التغييرات التالية:

إطلاق تطبيق جديد مخصص لـ "Gemini" جيميني على منصة أندرويد، بينما يستطيع مستخدمو أجهزة آيفون استخدام جيميني داخل تطبيق جوجل على iOS.

إعادة تسمية بارد على  Duet AI، الذي كان يُعرف سابقًا باسم "وكلاء الذكاء الاصطناعي المجمعين"، والذي يستخدم في Google Workspace   وجوجل كلاود، ليصبح Gemini for Workspace و Gemini for Google Cloudإمكانية الوصول إلى ميزات مساعد Gemini في تطبيقات Gmail وDocs وSheets وSlides وMeet للمشتركين الذين يدفعون مقابل اشتراك الذكاء الاصطناعي.

يذكر أن هسياو، نائبة رئيس شركة جوجل مدير عام برنامجي مساعد جوجل وجيميني قالت أن الهدف من تغيير اسم البرنامج هو مساعدة المستخدمين على فهم أنهم يتفاعلون مباشرة مع نماذج الذكاء الاصطناعي التي يدعمها برنامج الدردشة الآلي، و"بارد" كان يعتبر الوسيلة للتواصل مع نماذج الذكاء الاصطناعي المتقدمة التي تعتمد عليها الخدمة، بينما "جيميني" يُمثل تلك النماذج المتقدمة ذاتها بشكل مباشر، كما يمكن لوكلاء الذكاء الاصطناعي تنظيم جلسات Hangout جماعية، وذلك عن طريق مسح تقويم الجميع للتأكد من عدم وجود تعارضات في المواعيد، كما يمكنهم حجز السفر والأنشطة، وشراء الهدايا للأحباء، أو أداء وظائف محددة مثل المبيعات الخارجية.

وتقتصر الأدوات، بما في ذلك جيميني، بشكل كبير في الوقت الحالي على مهام واضحة مثل:

تلخيص المعلومات.إنشاء قوائم المهام.المساعدة في كتابة التعليمات البرمجية.

المصدر: بوابة الوفد

كلمات دلالية: جيميني الذكاء الاصطناعي جوجل بارد برنامج الدردشة الآلي

إقرأ أيضاً:

أخلاقيات الذكاء الاصطناعي

في مقالي السابق بعنوان: «الفن والذكاء الاصطناعي» تناولت هذا الموضوع من بُعد واحد فقط، وهو التساؤل مدى مشروعية الفن المصنوع وفقًا للذكاء الاصطناعي من الناحية الإبداعية، ونفيت عن هذا الفن المصنوع صفة الإبداع، مع التسليم بأهميته ودوره في مجالات معينة لا تُحسَب على الفنون الجميلة. وبوسعنا هنا التساؤل عن مدى مشروعية الفن المصنوع وفقًا للذكاء الاصطناعي من الناحية الأخلاقية. غير أن هذا سيكون مجرد مثال من الأمثلة على مسألة «أخلاقيات الذكاء الاصطناعي» التي تتعدد وتتباين في تطبيقاتها بناءً على تعدد وتباين مجالات الذكاء الاصطناعي ذاته، إذ إنها لا تقتصر على مجال الفن وحده، وإنما تمتد لتشمل كل المجالات العلمية والمعرفية عمومًا التي تؤثر في كل مناحي حياتنا، فهي تمتد لتشمل على سبيل المثال: عملية التفاعل الأخلاقي مع الروبوتات الخاصة بالرعاية الطبية والاجتماعية؛ واستخدام الأسلحة في الحروب؛ فضلًا عن استخدام برامج الذكاء الاصطناعي في عملية التزييف المتقن في مجال الفن والثقافة.

لعل الأخلاقيات المتعلقة باستخدام الآلة الذكية هي أكثر المسائل التي ترِد على الأذهان حينما نتطرق إلى مناقشة أخلاقيات الذكاء الاصطناعي. وهناك اعتقاد شائع بأنه حينما يتم تصميم الآلة الذكية لكي تتخذ مواقف وقرارات، فإن كل شيء يكون على ما يُرَام؛ لأن الناس يعتقدون أن الآلات - بخلاف البشر- لا ترتكب أخطاء، ولا تتورط في اتخاذ قرارات منحازة. ولكن هذا الاعتقاد واهم؛ لأن الآلات الذكية المصممة لكي تعمل باعتبارها «روبوتات» هي آلات من صنع البشر، وهي يتم تزويدها بمعلومات من صنع البشر. وأنا أستخدم هنا كلمة «معلومات» على سبيل التبسيط؛ لأن ما يتم تزويد الآلة به هو برامج خوارزمية شديدة التعقيد، والآلة تكون مصممة على هذا الأساس وعلى الغرض الذي أُنشِئت من أجله. وعلى هذا، فإن تصميم الآلة نفسه يكون عُرضة للتحيز الذي يمكن أن يحدث بطريقة قصدية أو بطريقة غير قصدية. ولهذا يرى بعض الباحثين أن الآلة تواجه المشكلات الأخلاقية نفسها التي نواجهها نحن البشر؛ وهي في النهاية تتخذ القرارات التي سنتخذها أو نود أن نتخذها لو كنا في موقفها.

غير أن المسألة الأخلاقية هنا أعقد من ذلك بكثير؛ لأن برمجة الآلات الذكية وفقًا لخوارزميات معينة لا يعني أن هذه الآلات سوف تتخذ دائمًا قرارًا واحدًا ثابتًا وصائبًا باستمرار؛ لأنها قد تتلقى معطيات مستمدة من العالم الخارجي لا تتطابق مع برمجة الآلات للاستجابة للمعطيات؛ إذ إن المعطيات المستمدة من العالم الخارجي قد تكون ملتبسة مع معطيات أخرى مشابهة بحيث لا تستطيع الآلة أن تحدد بدقة المعطيات المقصودة؛ ويكون عليها أن تتخذ قرارًا قد يكون خاطئًا. ويتضح هذه بوجه خاص في استخدام الأسلحة المبرمجة وفقًا للذكاء الاصطناعي، والتي تتصرف ذاتيًّا؛ ومن ثم تصبح عُرضة للخطأ. وليس ببعيد ما يحدث في عالمنا الراهن؛ إذ نجد أن إسرائيل تستخدم هذا النوع من الأسلحة في قتل الفلسطينيين، بل استخدمته في قتل فريق من أعضاء منظمة الغذاء العالمي، متذرعة بهذه الحجة العلمية، وهي أن هذه الأسلحة قابلة لارتكاب الخطأ، ولكنه ليس خطأ بشريّا، أي أنها ليست مبرمجة وفقًا لهذا القصد.

ولكن أخلاقيات الذكاء الاصطناعي تصبح أكثر تعقيدًا حينما ننظر في استخدام الروبوتات في مجال الرعاية الطبية والاجتماعية بوجه عام. ولقد تطورت صناعة هذه الروبوتات وبرمجتها بشكل مذهل، بحيث أصبحنا نجد في عالمنا الآن روبوتات تشبه البشر من الجنسين بمختلف أشكالهم وألوانهم، وهي روبوتات مبرمَجة على أداء الخدمات والرعاية الفائقة، بل التعبير عن المشاعر المتبادلة. وقد أطلق كل هذا عنان الخيال لدى السينمائيين الذين صنعوا أفلامًا تصور هذا الموضوع وتتنبأ بما يمكن أن يؤول إليه في المستقبل القريب. وهناك عشرات الأفلام التي تمثلت هذا الموضوع خلال العقد الأخير، ونال بعضها جوائز الأوسكار. وهناك فيلم - لا يحضرني اسمه - يعد مثالًا جيدًا هنا. يحكي الفيلم عن استعانة زوجين بروبوت يقوم بالخدمة والرعاية الاجتماعية الفائقة، بناءً على إعلان شركة صانعة عن المزايا العديدة لهذا الروبوت الذي هو أحدث إنتاجها. ولأن الروبوت كان مصممًا لأداء كل ما هو مطلوب منه بكل دقة، بل كان أيضًا مصممًا للتعبير عن مشاعره من خلال تعبير صوته ووجهه أيضًا؛ فقد نشأت علاقة عاطفية بين الروبوت والزوجة، واعتاد كل منهما البقاء مع الآخر. وليس ببعيد عنا ما تداولته الأخبار مؤخرًا عن زواج بين شاب ياباني والأنثى الروبوت التي يرافقها! ومثل هذا النوع من الأخبار يتكرر من حين لآخر هنا وهناك.

ولكن أخلاقيات الذكاء الاصطناعي في مجال الفن تتبدى بشكل مختلف، ودور العنصر الإنساني فيه يكون أكثر اتساعًا، والمشكلة الأخلاقية الأساسية هنا تكمن في إمكانية استخدام الآلة الذكية (المبرمجة) في عملية التزييف وانتهاك حقوق الملكية الفكرية: فلقد أصبح من المألوف قيام بعض المحترفين بسرقة «التيمة الأساسية» في لوحة ما، وإدخال بعض التعديلات والرتوش على تفاصيل اللوحة لكي تبدو في النهاية وكأنها عمل إبداعي! كما أن مستخدمي الذكاء الاصطناعي يمكنهم محاكاة أسلوب فنان ما وإنتاج أعمال ينسبونها إليه، ولكن من حسن الحظ أن هناك برامج في الذكاء الاصطناعي نفسه يمكنها الكشف عن هذا التزييف.

كل ما سبق يعني أن الذكاء الاصطناعي هو- كالتكنولوجيا عمومًا- أداة محايدة يمكن حسن استخدامها أو إساءة استخدامها؛ وبالتالي فإن هناك حاجة إلى وضع حدود للذكاء الاصطناعي، من خلال مبادئ تشريعية ومواثيق أخلاقية دولية لها طبيعة إلزامية.

د. سعيد توفيق أستاذ علم الجمال والفلسفة المعاصرة بجامعة القاهرة

مقالات مشابهة

  • العراق يقرر إدخال الذكاء الاصطناعي في المناهج الدراسية
  • «معلومات الوزراء» يستعرض أبرز التقارير الدولية حول خريطة جاهزية العالم للذكاء الاصطناعي
  • وزير الاتصالات يجتمع في الولايات المتحدة بشركات في الذكاء الاصطناعي والتقنيات العميقة
  • الذكاء الاصطناعي يرفع انبعاثات الغازات الدفيئة لجوجل بنسبة 50%
  • البرازيل تمنع Meta من استخدام منشورات البرازيليين على وسائل التواصل الاجتماعي.. ما القصة؟
  • لميس الحديدي: الحكومة الجديدة مش مجرد تغيير وزاري
  • أخلاقيات الذكاء الاصطناعي
  • اعتماد نتائج 3 مستويات من برنامج الذكاء الاصطناعي الحيوي في جامعة كفر الشيخ
  • “إي آند” تفتح باب التقديم للدفعة السادسة من برنامج “خريجي الذكاء الاصطناعي”
  • جوجل تروج للتطبيقات بميزة المجموعات