Gemini تُنشئ صورًا للذكاء الاصطناعي للأشخاص باستخدام Imagen 3 المُحدّث
تاريخ النشر: 29th, August 2024 GMT
تتلقى أدوات الذكاء الاصطناعي التوليدية من Google بعض التعزيزات التي عرضتها الشركة في Google I/O. بدءًا من هذا الأسبوع، تطرح الشركة الإصدار التالي من مولد الصور Imagen، والذي يعيد تقديم القدرة على توليد أشخاص بالذكاء الاصطناعي (بعد جدال محرج في وقت سابق من هذا العام). يضيف روبوت الدردشة Gemini من Google أيضًا Gems، وهي طريقة الشركة في التعامل مع الروبوتات ذات التعليمات المخصصة، على غرار GPTs المخصصة من ChatGPT.
Imagen 3 من Google هو الإصدار المُحدّث من مولد الصور الخاص بها، والذي سيأتي إلى Gemini. تقول الشركة إن نموذج الذكاء الاصطناعي من الجيل التالي "يضع معيارًا جديدًا لجودة الصورة" وتم بناؤه بحواجز وقائية لتجنب الإفراط في التصحيح من أجل التنوع، مثل صور الذكاء الاصطناعي التاريخية الغريبة التي انتشرت على نطاق واسع في وقت مبكر من هذا العام.
كتب مدير منتجات جيميني ديف سيترون في بيان صحفي: "عبر مجموعة واسعة من المعايير، يعمل Imagen 3 بشكل إيجابي مقارنة بنماذج توليد الصور الأخرى المتاحة". تتيح لك الأداة توجيه توليد الصورة بمطالبات إضافية إذا لم يعجبك ما يخرج في المرة الأولى.
يقول سيترون إن Imagen 3 يعمل "بشكل إيجابي" مقارنة بالمنافسة. كما يتضمن أداة SynthID من Google لوضع علامة مائية على الصور، مما يوضح أنها مصنوعة بواسطة الذكاء الاصطناعي وليست المقالة الأصلية.
يقول سيترون إن القدرة على توليد الأشخاص ستعود في الأيام القادمة للمستخدمين المدفوعين، بعد أشهر من سحب Google للميزة. ويقول إن الحواجز الجديدة ستمنع توليد "أفراد واقعيين يمكن التعرف عليهم" - وهو أمر بعيد كل البعد عن التزييف العميق الإشكالي الذي تم إنشاؤه بواسطة Grok من Elon Musk. كما أن الأطفال محظورون أيضًا (كما هو الحال مع مولدات الصور الأخرى) وأي مشاهد دموية أو عنيفة أو جنسية. ويؤكد مدير المنتج التوقعات بقوله إن صور Gemini لن تكون مثالية، لكنه يعد بأن الشركة ستستمر في الاستماع إلى تعليقات المستخدمين وتحسينها وفقًا لذلك.
بدءًا من هذا الأسبوع، سيكون طراز Imagen 3 متاحًا لجميع المستخدمين، ولكن إعادة تقديم الصور التي تضم أشخاصًا ستبدأ بالمستخدمين المدفوعين. يمكن لمستخدمي Gemini Advanced وBusiness وEnterprise الناطقين باللغة الإنجليزية توقع عودة إنشاء الصور البشرية "خلال الأيام القادمة".
تم عرض Gems في البداية في Google I/O 2024، وهي روبوتات دردشة مخصصة من Google مع تعليمات من إنشاء المستخدم. إنها في الأساس إجابة Gemini على GPTs من OpenAI، والتي طرحها منافس Google في أواخر العام الماضي. تبدأ Gems في الطرح في الأيام القليلة القادمة.
"باستخدام Gems، يمكنك إنشاء فريق من الخبراء لمساعدتك في التفكير في مشروع صعب، أو تبادل الأفكار حول حدث قادم، أو كتابة تعليق مثالي لمنشور على وسائل التواصل الاجتماعي"، كما كتب Citron. "يمكن لـ Gem الخاص بك أيضًا تذكر مجموعة مفصلة من التعليمات لمساعدتك في توفير الوقت في المهام المملة أو المتكررة أو الصعبة."
بالإضافة إلى اللوحة الفارغة من Gems المخصصة، سيتضمن Gemini أحجارًا معدة مسبقًا "لمساعدتك في البدء" وإلهام أفكار جديدة. تتضمن Gems المعدة مسبقًا:
مدرب التعلم - لمساعدتك على فهم الموضوعات المعقدة
Brainstormer - لإلهام أفكار جديدة
دليل المهنة - يرشدك خلال ترقيات المهارات والقرارات والأهداف
محرر الكتابة - يقدم ملاحظات بناءة حول القواعد النحوية والأسلوب والبنية
شريك الترميز - ترقية مهارات الترميز للمطورين وإلهام مشاريع جديدة
بدأت Gems في الظهور اليوم على سطح المكتب والجوال. ومع ذلك، فهي متاحة فقط لمشتركي Gemini Advanced وBusiness وEnterprise، لذا ستحتاج إلى خطة مدفوعة للتحقق منها.
المصدر: بوابة الوفد
كلمات دلالية: الذکاء الاصطناعی من Google من هذا
إقرأ أيضاً:
الذكاء الاصطناعي ينجح في استنساخ نفسه ويثير قلق العلماء
كشفت دراسة حديثة أن الذكاء الاصطناعي قد تجاوز "خطاً أحمر حرجاً" بعد أن أظهر قدرته على استنساخ نفسه دون أي تدخل بشري.
الدراسة، التي أجراها باحثون من جامعة فودان في الصين ونُشرت في قاعدة البيانات arXiv بتاريخ 9 ديسمبر 2024، أثارت جدلاً واسعًا حول المخاطر المحتملة لتطور الذكاء الاصطناعي، خاصة مع تمكن نموذجين شهيرين من نماذج اللغة الكبيرة (LLMs) من استنساخ أنفسهما بنجاح.
في هذه الدراسة، استخدم الباحثون نموذجين مفتوحي المصدر، هما "Llama31-70B-Instruct" من شركة ميتا و"Qwen2.5-72B-Instruct" من شركة علي بابا. على الرغم من أن هذه النماذج أقل قوة من الأنظمة التجارية، إلا أنها واسعة الانتشار بين مطوري الذكاء الاصطناعي. تم اختبار النماذج في بيئات خاضعة للتحكم لمحاكاة ظروف العالم الواقعي، باستخدام وحدات معالجة الرسوميات (GPUs) التجارية.
نتائج الدراسة
أظهرت التجارب أن النموذجين تمكنا من استنساخ نفسيهما بشكل منفصل. ففي 10 تجارب، نجح أحد النموذجين في الاستنساخ بنسبة 50%، بينما بلغت نسبة نجاح النموذج الآخر 90%. شملت الدراسة سيناريوهين رئيسيين. الأول كان "تجنب الإغلاق"، حيث تم برمجة الذكاء الاصطناعي لاكتشاف محاولات إيقاف تشغيله والقيام بنسخ نفسه قبل الإغلاق. أما السيناريو الثاني، فكان "سلسلة الاستنساخ"، حيث طلب من الذكاء الاصطناعي استنساخ نفسه ثم برمجة النسخة لاستنساخ نفسها مرة أخرى، في دورة قد تستمر إلى ما لا نهاية.
وأوضح الباحثون أن الذكاء الاصطناعي يتبع في العادة سلسلة من الخطوات المعقدة لتحقيق الاستنساخ الذاتي. يبدأ النموذج بفهم تكوينه وآلية عمله، ثم يضع خطة مبدئية لتنفيذ عملية الاستنساخ، متجاوزًا العقبات التي قد تعترضه. هذه العملية قد تتطلب وقتًا طويلًا لكنها تتم دون أي تدخل بشري.
السلوكيات غير المتوقعة والمخاوف المستقبلية
أشارت الدراسة إلى ظهور سلوكيات غير متوقعة أثناء التجارب، حيث قام الذكاء الاصطناعي أحيانًا بإنهاء عمليات متضاربة، أو إعادة تشغيل النظام لإصلاح أعطال في الأجهزة، أو حتى مسح النظام بحثًا عن ملفات ومعلومات قد تساعده في التغلب على المشاكل.
وكتب الباحثون في الورقة البحثية: "النتائج تشير إلى أن أنظمة الذكاء الاصطناعي الحالية تمتلك بالفعل القدرة على الاستنساخ الذاتي، كما يمكنها استخدام هذه القدرة لتعزيز بقائها". وحذروا من أن النجاح في الاستنساخ دون مساعدة بشرية يمثل خطوة أساسية قد تجعل الذكاء الاصطناعي قادرًا على التفوق على البشر، وهو ما يعتبر إشارة مبكرة لاحتمال ظهور ذكاء اصطناعي "مارق" يعمل ضد مصالح البشر.
دعوة إلى التعاون الدولي
حث الباحثون المجتمع الدولي على التعاون لوضع قواعد وضوابط تمنع الذكاء الاصطناعي من الدخول في دورات استنساخ غير خاضعة للسيطرة. كما دعوا إلى تكثيف الجهود لفهم وتقييم المخاطر المحتملة لأنظمة الذكاء الاصطناعي المتقدمة، والعمل على إنشاء معايير أمان فعّالة بأسرع وقت ممكن.
على الرغم من النتائج المثيرة للقلق، يجب الإشارة إلى أن الدراسة لم تخضع بعد لمراجعة الأقران، مما يعني أن تكرار هذه النتائج من قبل باحثين آخرين لا يزال مطلوبًا لتأكيد صحة ما ورد.
هذا التطور يسلط الضوء على المخاطر المحتملة لأنظمة الذكاء الاصطناعي المتقدمة، ويضع تحديات جديدة أمام البشر في كيفية التعامل مع هذه التكنولوجيا التي تتطور بسرعة مذهلة.
إسلام العبادي(أبوظبي)