أطلقت شركة ديب مايند DeepMind التابعة لشركة جوجل Google، نموذجين جديدين للذكاء الاصطناعي مصممين لمساعدة الروبوتات علي أداء مجموعة واسعة من المهام في العالم الحقيقي.

وبحسب ما ذكره موقع "theverge" التقني، يعد النموذج الأول Gemini Robotics هو نموذج عمل ذو لغة رؤية قادر على فهم المواقف الجديدة، حتى لو لم يتم تدريبه عليها.

اختر ما يناسبك.. جوجل تقدم ميزات تسوق غامرة بالذكاء الاصطناعيجوجل تتفاوض مع الرئيس الأمريكي لإيقاف خطة تفكيكهاجوجل تطلق نماذج ذكاء اصطناعي متطورة لتعزيز قدرات الروبوتات

تم تصميم Gemini Robotics على نموذج Gemini 2.0، وهو أحدث إصدار من نموذج الذكاء الاصطناعي الرائد لشركة جوجل.

صرحت كارولينا بارادا، مديرة قسم الروبوتات في جوجل DeepMind، أن النموذج الجديد يستمد من ميزة الفهم المتعدد الوسائط للبيئة المحيطة في نماذج Gemini، ويضيف القدرة على تنفيذ إجراءات فيزيائية كطريقة جديدة.

ويقدم نموذج Gemini Robotics ثلاثة مجالات رئيسية تعد ضرورية لتطوير روبوتات مفيدة، وهي التعميم والتفاعل والمهارة اليدوية. وهو قادر على التكيف مع سيناريوهات جديدة، والتفاعل مع الأشخاص والبيئات المحيطة بكفاءة، كما أنه قادر على تنفيذ المهام المادية مثل طي الورق أو فتح غطاء الزجاجة.

ويمكن للنموذج الجديد تحقيق قفزة كبيرة في هذه الجوانب مجتمعة، مما يسهم في تطوير روبوتات أكثر استجابة وقدرة على التعامل مع التغيرات البيئية.

وفي الوقت نفسه، أطلقت ديب مايند نموذج Gemini Robotics-ER، الذي يعتمد على الاستدلال المجسد لفهم البيئات الديناميكية واتخاذ قرارات مناسبة.

ويعد الاستدلال المجسد مفهوما في الذكاء الاصطناعي يشير إلى قدرة النظام على فهم العالم المادي، واتخاذ قرارات بناء على إدراكه الحسي، والتفاعل المباشر مع البيئة.

إذا كان الروبوت يساعد في تحضير صندوق غداء، فإنه يحتاج إلى معرفة موقع الأشياء على الطاولة، وكيفية فتح الصندوق، والإمساك بالعناصر ووضعها في الأماكن المناسبة، وهو ما يمكن لـ Gemini Robotics-ER تنفيذه بفضل قدراته الإدراكية المتقدمة.

ويتيح النموذج الجديد لعلماء الروبوتات إدماجه في وحدات التحكم المنخفضة المستوى، مما يمنح الروبوتات إمكانات جديدة في التعامل مع المهام اليومية المعقدة.

وأكدت DeepMind أن السلامة تأتي على رأس أولوياتها، حيث يتم تدريب Gemini Robotics-ER على تقييم مدى أمان أي إجراء قبل تنفيذه.

كما كشفت الشركة عن إطار عمل جديد، ومعايير قياسية للمساعدة في أبحاث سلامة الذكاء الاصطناعي.

وفيما يتعلق بالسلامة، قدمت جوجل وDeepMind  العام الماضي ما يسمى دستور الروبوتات، وهو مجموعة من القواعد المستوحاة من مبادئ المفكر الأمريكي إسحاق أسيموف لضبط سلوك الروبوتات.
 

المصدر: صدى البلد

كلمات دلالية: الروبوتات جوجل ذكاء اصطناعي ديب مايند جوجل DeepMind المزيد

إقرأ أيضاً:

أوبن أيه آي تقيد الوصول إلى نماذج الذكاء الاصطناعي المستقبلية

أبوظبي (وكالات)
مع تسارع تطور الذكاء الاصطناعي وازدياد قدرات نماذج "أوبن أيه آي" بدأت الشركة  في اتخاذ خطوات أكثر صرامة لحماية منتجاتها وضمان استخدامها بشكل آمن وأخلاقي. أحدث هذه الخطوات هو إطلاق نظام "المنظمة الموثّقة" (Verified Organization)، والذي سيتطلب من المؤسسات إتمام عملية تحقق من الهوية للوصول إلى بعض النماذج المستقبلية المتقدمة.

وقد تطلب شركة "أوبن أيه آي" قريبًا من المؤسسات إتمام عملية تحقق من الهوية للوصول إلى بعض نماذج الذكاء الاصطناعي المستقبلية. بحسب ما ذكر موقع تك كرانش المتخصص في موضوعات التكنولوجيا.

ما هي عملية التحقق الجديدة؟
بحسب صفحة دعم نشرتها "أوبن أيه آي" مؤخرًا، فإن عملية التحقق تهدف إلى تمكين المطورين من الوصول إلى أقوى النماذج والإمكانات على منصة "أوبن أيه آي.
وتتطلب تقديم هوية حكومية رسمية من دولة مدعومة من واجهة "أوبن أيه آي".
ويمكن استخدام الهوية للتحقق من مؤسسة واحدة فقط كل 90 يومًا، وليس كل المؤسسات ستكون مؤهلة لإجراء التحقق، بحسب ما أوضحت الشركة.
اقرأ أيضاً.."أوبن أيه آي": منشئ الصور الجديد أصبح متاحاً لجميع المستخدمين

أخبار ذات صلة «تريندز»: تحديات أوروبا والشرق الأوسط بحاجة لحلول مبتكرة برعاية حمدان بن محمد.. «دبي للمستقبل» تنظم أسبوع «الذكاء الاصطناعي» بحضور 10 آلاف مشارك

لماذا هذه الخطوة الآن؟
أضافت "أوبن أيه آي"، أنها تأخذ مسؤوليتها بجدية لضمان أن الذكاء الاصطناعي يكون متاحًا على نطاق واسع ويُستخدم بطريقة آمنة. ولكن هناك قلة من المطورين يستخدمون واجهات "أوبن أيه آي" بطريقة تنتهك سياسات الاستخدام. ولهذا أضافت عملية التحقق لتقليل الاستخدام غير الآمن للذكاء الاصطناعي، مع الاستمرار في إتاحة النماذج المتقدمة للمجتمع الأوسع من المطورين".

عملية التحقق الجديدة قد تكون خطوة لتعزيز الأمان حول منتجات "أوبن أيه آي"، خصوصًا مع تطورها المتزايد وقدراتها المتقدمة، ولمنع الاستخدامات الخبيثة لنماذجها من قبل جهات مخالفة. وحماية المستخدمين من سوء استخدام تقنيات الذكاء الاصطناعي.

ونشرت الشركة عدة تقارير عن جهودها في اكتشاف ومنع الاستخدامات الخبيثة لنماذجها.

 

مقالات مشابهة

  • أوبن أيه آي تقيد الوصول إلى نماذج الذكاء الاصطناعي المستقبلية
  • أخنوش: المغرب يترافع من أجل ذكاء اصطناعي أخلاقي يخدم الصالح العام
  • مايكروسوفت: نماذج الذكاء الاصطناعي تواجه تحديات في اكتشاف ثغرات البرامج
  • يوتيوب تطلق أداة ذكاء اصطناعي جديدة لتوليد موسيقى خلفية مجانية للفيديوهات
  • غوغل تطلق ميزات مبتكرة لتوليد الصوت والفيديو بالذكاء الاصطناعي
  • «Adobe» تكشف عن تحديثات ذكاء اصطناعي ثورية في برامجها
  • إطلاق أحدث نماذج الذكاء الاصطناعي.. مخصص للتعامل مع «الأوامر الصوتية»
  • أجهزة o4-mini و o3.. بداية مرحلة جديدة في إنتاج الذكاء الاصطناعي من OpenAI
  • Amazon تعلن عن نموذجها الجديد للذكاء الاصطناعي
  • أداة ذكاء اصطناعي تساهم في الحفاظ على أشجار الكرز المزهرة في اليابان