Google Gemini 1.5 Pro نموذجًا جديدًا وأكثر كفاءة للذكاء الاصطناعي
تاريخ النشر: 16th, February 2024 GMT
كشفت Google يوم الخميس النقاب عن Gemini 1.5 Pro، والذي تصفه الشركة بأنه يقدم "أداء محسنًا بشكل كبير" مقارنة بالطراز السابق. يتبع مسار الذكاء الاصطناعي للشركة - الذي يُنظر إليه داخليًا على أنه بالغ الأهمية لمستقبلها - الكشف عن Gemini 1.0 Ultra الأسبوع الماضي، إلى جانب تغيير العلامة التجارية لـ Bard chatbot (إلى Gemini) لتتماشى مع قدرات النموذج الجديد الأكثر قوة وتنوعًا.
في منشور مدونة إعلاني، يحاول ساندر بيتشاي، الرئيس التنفيذي لشركة Google، وديميس هاسابيس، الرئيس التنفيذي لشركة Google DeepMind، تحقيق التوازن بين طمأنة جمهورهما حول السلامة الأخلاقية للذكاء الاصطناعي مع الترويج لقدرات نماذجهما سريعة التطور. ولخص بيتشاي قائلاً: "تواصل فرقنا دفع حدود أحدث موديلاتنا مع مراعاة السلامة في جوهرها".
تحتاج الشركة إلى التأكيد على سلامة المتشككين في الذكاء الاصطناعي (بما في ذلك أحد المديرين التنفيذيين السابقين لشركة جوجل) والجهات التنظيمية الحكومية. ولكنها تحتاج أيضًا إلى التأكيد على الأداء المتسارع لنماذجها لمطوري الذكاء الاصطناعي والعملاء المحتملين والمستثمرين الذين يشعرون بالقلق من أن الشركة كانت بطيئة جدًا في الاستجابة لنجاح OpenAI مع ChatGPT.
يقول Pichai وHassabis إن Gemini 1.5 Pro يقدم نتائج مماثلة لـ Gemini 1.0 Ultra. ومع ذلك، يعمل Gemini 1.5 على هذا المستوى بكفاءة أكبر، مع انخفاض المتطلبات الحسابية. تتضمن إمكانيات الوسائط المتعددة معالجة النصوص أو الصور أو مقاطع الفيديو أو الصوت أو التعليمات البرمجية. مع تقدم نماذج الذكاء الاصطناعي، ستستمر في تقديم مجموعة أكثر تنوعًا من الإمكانات في مربع مطالبة واحد (مثال حديث آخر هو دمج OpenAI لإنشاء صور DALL-E 3 في ChatGPT).
يمكن لـ Gemini 1.5 Pro أيضًا التعامل مع ما يصل إلى مليون رمز مميز، أو يمكن لوحدات نماذج البيانات التي تعمل بالذكاء الاصطناعي معالجتها في طلب واحد. تقول Google إن Gemini 1.5 Pro يمكنه معالجة أكثر من 700000 كلمة وساعة من الفيديو و11 ساعة من الصوت وقواعد التعليمات البرمجية مع أكثر من 30000 سطر من التعليمات البرمجية. وتقول الشركة إنها "اختبرت بنجاح" إصدارًا يدعم ما يصل إلى 10 ملايين رمز مميز.
تقول الشركة إن Gemini 1.5 Pro يحافظ على دقة عالية في الاستعلامات ذات أعداد الرموز المميزة الأكبر عندما يكون لديه المزيد من البيانات الجديدة ليتعلمها. يُقال أن النموذج أعجب بتقييم Needle In a Haystack. في هذا الاختبار، يقوم المطورون بإدراج جزء صغير من المعلومات داخل كتلة نصية طويلة لمعرفة ما إذا كان نموذج الذكاء الاصطناعي يمكنه التقاطها. قالت Google إن Gemini 1.5 Pro يمكنه العثور على النص المضمن بنسبة 99 بالمائة من الوقت في كتل البيانات التي يصل طولها إلى مليون رمز مميز.
تقول Google إن Gemini 1.5 Pro يمكنه التفكير في تفاصيل مختلفة من نصوص مهمة القمر Apollo 11 المؤلفة من 402 صفحة. بالإضافة إلى ذلك، يمكنه تحليل نقاط الحبكة والأحداث من فيلم صامت مدته 44 دقيقة تم تحميله من بطولة باستر كيتون. كتب هاسابيس: "نظرًا لأن نافذة السياق الطويلة لـ 1.5 Pro هي الأولى من نوعها بين النماذج واسعة النطاق، فإننا نعمل باستمرار على تطوير تقييمات ومعايير جديدة لاختبار قدراتها الجديدة".
تطلق Google برنامج Gemini 1.5 Pro بقدرات 128000 رمز، وهو نفس العدد الذي تصل إليه نماذج GPT-4 الخاصة بـ OpenAI (المعلن عنها علنًا). يقول هاسابيس إن جوجل ستقدم في النهاية مستويات تسعير جديدة تدعم ما يصل إلى مليون استعلام مميز.
يعد Gemini 1.5 Pro أيضًا بارعًا في تعلم مهارات جديدة من المعلومات في مطالبات طويلة - دون ضبط إضافي ("التعلم في السياق"). وفي اختبار قياسي يسمى الترجمة الآلية من كتاب واحد، تعلم النموذج دليلًا نحويًا للغة كالامانج، وهي لغة يتحدث بها أقل من 200 متحدث على مستوى العالم ولم يتم التدريب عليها من قبل. وتقول الشركة إن Gemini 1.5 Pro تعلم الأداء بمستوى مماثل حيث يتعلم الإنسان نفس المحتوى عند ترجمة اللغة الإنجليزية إلى Kalamang.
وفي جزء من الإعلان الذي سيلفت انتباه المطورين، تقول Google إن Gemini 1.5 Pro يمكنه أداء مهام حل المشكلات عبر كتل تعليمات برمجية أطول. كتب هاسابيس: "عندما تُعطى مطالبة تحتوي على أكثر من 100000 سطر من التعليمات البرمجية، يمكنها التفكير بشكل أفضل عبر الأمثلة، واقتراح تعديلات مفيدة وتقديم تفسيرات حول كيفية عمل أجزاء مختلفة من التعليمات البرمجية".
وعلى صعيد الأخلاقيات والسلامة، تقول جوجل إنها تتبع "نفس النهج تجاه المسئولين".
"العمل" الذي استغرقته نماذج Gemini 1.0. ويتضمن ذلك تطوير وتطبيق تقنيات الفريق الأحمر، حيث تعمل مجموعة من المطورين الأخلاقيين في الأساس كمدافعين عن الشيطان، ويختبرون "مجموعة من الأضرار المحتملة". بالإضافة إلى ذلك، تقول الشركة إنها تقوم بتدقيق شديد في مجالات مثل سلامة المحتوى والأضرار التمثيلية. وتقول الشركة إنها تواصل تطوير اختبارات أخلاقية وسلامة جديدة لأدوات الذكاء الاصطناعي الخاصة بها.
تطلق Google إصدار Gemini 1.5 للوصول المبكر للمطورين وعملاء المؤسسات. وتخطط الشركة لجعله متاحًا على نطاق أوسع في نهاية المطاف. يتوفر Gemini 1.0 حاليًا للمستهلكين، إلى جانب الإصدار Pro الذي يكلف 20 دولارًا شهريًا.
المصدر: بوابة الوفد
إقرأ أيضاً:
العالم في عصر الذكاء الاصطناعي الفائق
أعلنت شركة أوبن إيه آي (OpenAI) منذ تأسيسها في سان فرانسيسكو عام 2015 أن هدفها الرئيسي يتمثل في تطوير ذكاء اصطناعي عام (AGI) وآمن يحاكي ذكاء الإنسان، ويفيد البشرية جمعاء، لكنها لم تتحدث عن موعد إنجاز ذلك حتى فترة قريبة.
في شهر يوليو/تموز 2024، تحدثت أوبن إيه آي عن تصنيف الذكاء الاصطناعي ضمن 5 مستويات، هي:
المستوى الأول: الذكاء الاصطناعي التحاوري (Conversational AI)يشير هذا المستوى إلى التقنيات التي تُمكّن الآلات من فهم ومعالجة لغة البشر والحوار معهم بطريقة طبيعية وسياقية، ومساعدتهم في إنشاء المحتوى الخاص بهم. يشمل ذلك روبوتات الدردشة، والمساعدات الافتراضية، وأدوات أخرى مصممة للتفاعل مع المستخدمين من خلال النص أو الصوت أو كلاهما معا.
تتوافر حاليا عدة برمجيات تقع ضمن هذا المستوى، ولكن بدرجات متفاوتة من حيث الهدف وطبيعة الاستخدام، منها شات جي بي تي من أوبن إيه آي، وأليكسا من أمازون، وكوبايلوت من مايكروسوفت، وسيري من آبل، وجيميناي من غوغل، وواتسون من آي بي إم، إلخ. المستوى الثاني: الذكاء الاصطناعي المنطقي (Reasoning AI)
يشير هذا المستوى إلى الأنظمة الذكية المصممة لمحاكاة التفكير المنطقي واتخاذ القرارات بشكل مشابه للبشر. يتضمن ذلك استخدام خوارزميات لحل المشكلات، واستخلاص الاستنتاجات، واتخاذ القرارات بناءً على البيانات والقواعد المعطاة. بدأت بعض الشركات حديثا بتجريب تقنيات تعتبر ضمن المراحل الأولى لهذا المستوى، مثل "o1" من أوبن ايه آي. المستوى الثالث: الذكاء الاصطناعي المستقل (Autonomous AI)
يشير هذا المستوى إلى الأنظمة القادرة على أداء المهام واتخاذ القرارات بشكل مستقل دون تدخل بشري. تستخدم هذه الأنظمة التعلم الآلي الذاتي، والاستدلال المنطقي، والإدراك للتكيف والاستجابة لبيئتها بشكل ديناميكي. يمكن لهذه الأنظمة العمل كوكيل (Agent) مستقل نيابة عن المستخدم، كممارسة عمله أثناء إجازته.
تعمل العديد من الشركات للوصول إلى هذا المستوى، لكنها لم تبلغه بعد بشكل كامل. أبسط الأمثلة على ذلك هو السيارات ذاتية القيادة عندما تصل إلى مستوى لا يتطلب مراقبة بشرية لعملها. المستوى الرابع: الذكاء الاصطناعي الابتكاري (Innovating AI)
يشير هذا المستوى إلى الأنظمة الذكية القادرة على استكشاف وابتكار وتطوير أفكار أو منتجات أو حلول جديدة بشكل مستقل. يستخدم التفكير الناقد في هذا المستوى لتطوير الأعمال وتحقيق الأهداف بكفاءة عالية. يمثل بلوغ هذا المستوى قفزة هائلة في قدرات وتطبيقات الذكاء الاصطناعي، تقربه من الذكاء الاصطناعي الفائق. المستوى الخامس: الذكاء الاصطناعي التنظيمي (Organizational AI)
يشير هذا المستوى الأخير إلى ذكاء اصطناعي فائق (Superintelligence) قادر على أداء عمل منظمة أو مؤسسة بأكملها أي يقوم بأعمال كل شخص لدى المنظمة أو المؤسسة، وكل وظيفة يتم تنفيذها، وذلك بواسطة وكلاء آليين يعملون معا، ويجرون التحسينات، ويديرون كل ما هو مطلوب دون الحاجة لوجود إنسان.
لا يكتفي الذكاء الاصطناعي التنظيمي بإدارة أعمال المنظمة أو المؤسسة بأكملها فقط، بل ويحسن ويعزز العمليات التجارية واتخاذ القرارات من خلال تحليل البيانات، والتوصل إلى رؤى تدعم التخطيط الإستراتيجي وتحسن كفاءة العمل.
في سبتمبر/أيلول 2024، صرح سام ألتمان، الرئيس التنفيذي لشركة أوبن إيه آي، أن تحقيق الذكاء الاصطناعي الفائق الذي يتفوق على البشر في جميع المجالات، قد يكون ممكنا في غضون "بضعة آلاف من الأيام"، أي بضع سنوات.
لا يكتفي الذكاء الاصطناعي التنظيمي بإدارة أعمال المنظمة أو المؤسسة بأكملها فقط بل يحسن ويعزز العمليات التجارية واتخاذ القرارات (غيتي إيميجز) الذكاء الاصطناعي العام في 2025في الثامن من نوفمبر/تشرين الثاني 2024، أجرى جاري تان، رئيس مجلس الإدارة والرئيس التنفيذي لحضانة الشركات الناشئة واي كومبينيتور (Y Combinator)، مقابلة مع سام ألتمان، سأله فيها "ما الذي أنت متحمس له في عام 2025؟" "ماذا سيأتي؟"
أجاب ألتمان على الفور: "الذكاء الاصطناعي العام". "أنا متحمس لذلك".
هل هذا واقعي؟في مارس/آذار 2023 وبعد مدة وجيزة من إطلاق شات جي بي تي 4، تم إخضاعه للعديد من الامتحانات المطلوبة للقبول في الجامعات الأميركية أو لممارسة الأعمال، حيث أحرز فيها نتائج جيدة. ففي اختبار سات (SAT) الذي تعتمده الجامعات الأميركية للقبول، حصل في قسم القراءة والكتابة المستندة إلى الأدلة (Evidence-Based Reading & Writing) على درجة 710 من 800، أي حقق درجة أفضل من 93 بالمئة من الأشخاص الذين تقدموا لهذا الاختبار.
وحصل في قسم الرياضيات (Math) على درجة 700 من 800، محققا بذلك درجة أفضل من 89 بالمئة من الأشخاص الذين تقدموا لهذا الاختبار. وحصل بالمجمل على 1410 درجات من أصل 1600، مما يؤهله للقبول في جميع الجامعات الأميركية بما فيها جامعات النخبة (مثل هارفارد وستانفورد)، التي تتطلب عادة درجات أعلى من 1400.
وفي اختبار القبول في كلية الطب (MCAT) حصل على 511 درجة من أصل 528، وكان أداؤه أفضل من أداء 80 بالمئة من الأشخاص الذين تقدموا لهذا الامتحان. وكانت درجته تؤهله للقبول في أرقى الكليات التي تتطلب 510 درجات على الأقل. وأحرز شات جي بي تي 4، درجة قدرها 297 في امتحان نقابة المحامين الأميركيين الموحد (UBE)، الذي يؤهل المحامين لممارسة المهنة، وهي نتيجة تتجاوز الحد الأدنى المطلوب للنجاح في كافة الولايات الأميركية، مع العلم أن الحد الأدنى للنجاح في ولاية أريزونا هو الأعلى بين كافة الولايات الأميركية ويبلغ 273 درجة من 400.
وجاء أداؤه أفضل من أداء 90 بالمئة من الأشخاص الذين تقدموا لهذا الامتحان. هذه النتائج لا تعني أن مستوى ذكائه أصبح قريبا من ذكاء البشر، إذ لا يزال لديه العديد من نقاط الضعف وخاصة في مجال المنطق (reasoning)، وذلك ما حاولت أوبن إيه آي تحسينه في إصدارتها الحديثة "o1″، كما أنها تبذل جهودا كبيرة حاليا لتطوير القدرات المنطقية في إصدارات العام المقبل.
وفق المستويات الخمسة التي حددتها أوبن إيه آي، يمكن القول إن المستوى الذي يؤهل للذكاء الاصطناعي العام، هو المستوى الثاني، أي الذكاء الاصطناعي المنطقي. أما المستويات التي تتجاوز ذلك (الذكاء الاصطناعي المستقل والابتكاري والتنظيمي) فتمثل خطوات متقدمة نحو الذكاء الاصطناعي الفائق (ASI)، متجاوزة قدرات الذكاء الاصطناعي العام الأساسية.
إذا نجحت أوبن إيه آي في مسعاها لتطوير القدرات المنطقية للذكاء الاصطناعي لمنتجاتها خلال عام 2025، فيمكننا القول إننا بلغنا المستوى الأساسي للذكاء الاصطناعي العام، وفق اختبار آلان تورينغ (المتعارف عليه حاليا) الذي يقيس قدرة الآلة على محاكاة السلوك البشري في الحوار، بحيث لا يستطيع الشخص معرفة إن كان يتفاعل مع إنسان أو آلة.
التحذير من أخطار تفوق الذكاء الاصطناعي على البشر ليست بالجديدة (غيتي) هل العالم جاهز للذكاء الاصطناعي العامفي أكتوبر/تشرين الأول 2023 وخلال مناقشة عامة تتناول مستقبل الذكاء الاصطناعي، قال سام ألتمان: "إذا لم نبنِ بنية أساسية كافية، فسيكون الذكاء الاصطناعي العام متاحا لعدد قليل من الناس، مما قد يشعل الحروب، ويصبح في الغالب أداة بيد الأثرياء".
التحذير من أخطار تفوق الذكاء الاصطناعي على البشر ليست بالجديدة. ففي مقابلة مع بي بي سي عام 2014، قال عالم الفيزياء الراحل ستيفن هوكينغ: "تطوير الذكاء الاصطناعي الكامل يمكن أن يؤدي إلى نهاية الجنس البشري". أما إيلون ماسك فيعتقد أن هذا الاحتمال هو 20 بالمئة فقط، لكن يجب علينا أن نفعل ذلك على أي حال، حسب رأيه.
أما عالم الحاسوب الكندي الحائز جائزة تورنغ عام 2018 والذي يعتبر أحد آباء الذكاء الاصطناعي، يوشوا بينجيو فقال عن الذكاء الاصطناعي "نحن نخلق وحوشا أقوى منا".
وحذر الأمين العام للأمم المتحدة أنطونيو غوتيريش مرارا من خطورة استخدام الأسلحة الذكية التي تعمل تلقائيا قائلا "استهداف البشر بواسطة آلات مزودة بذكاء اصطناعي مستقل هو خط أخلاقي لا يجب تجاوزه".
وما يؤكد الشكوك في احتمال استخدام الذكاء الاصطناعي لتطوير أسلحة ذاتية العمل هو ما أعلنته شركة ميتا أوائل هذا الشهر من أنها ستسمح لوكالات الأمن القومي الأميركية ومقاولي الدفاع باستخدام نموذج الذكاء الاصطناعي مفتوح المصدر لاما (Llama) الذي طورته.
أخيرا، وفي أثناء مناقشة حول مستقبل الذكاء الاصطناعي جرت عام 2017، قال فلاديمير بوتين: "من سيتربع على عرش الذكاء الاصطناعي سوف يحكم العالم".
الذكاء الاصطناعي العام والفائق على الأبواب، وسوف يجعل من يمتلكه قادرا على القيام بأشياء تبدو خيالية حتى الآن. وقد تقوم الحروب من أجله، وقد ينتهي في أيدي فئات قليلة من أصحاب النفوذ، ما لم يتغير النظام العالمي الراهن.