كشفت شركة Meta، المالكة لفيسبوك، عن أول نموذج عمل لنظارات الواقع المعزز الجديدة "أوريون"، خلال مؤتمرها السنوي "Connect".

تأتي هذه النظارات في إطار رؤية الشركة لدمج العالم الافتراضي مع العالم المادي، حيث أوضح المدير التنفيذي للشركة، مارك زوكربيرغ، أن هذه التكنولوجيا "توفر لمحة عن مستقبل مثير" ووصفها بأنها "آلة زمن" تقدم نظرة على تقنيات المستقبل.




أقرأ أيضاً.. "ميتا" تطلق أدوات ذكاء اصطناعي جديدة للشركات

 

النظارات الجديدة مصنوعة من سبيكة المغنيسيوم وتعمل عبر تقنيات متقدمة مثل تتبع حركة اليدين، الأوامر الصوتية، وواجهة عصبية ترتبط بالمعصم.

وعلى الرغم من عدم استعراض قدراتها بشكل مباشر، تم عرض مقطع فيديو يظهر تفاعلات المستخدمين مع النظارات، بما فيهم جينسن هوانغ، المدير التنفيذي لشركة Nvidia.

 

 

أخبار ذات صلة "ميتا" تغير طريقة تمييز علامة "معلومات الذكاء الاصطناعي" على منصاتها الذكاء الاصطناعي ينمو سريعاً

في سياق آخر، أعلنت Meta عن تحديثات جديدة للذكاء الاصطناعي الخاص بها، بما في ذلك روبوتات ذكية قادرة على الاستجابة للأوامر الصوتية بفضل مساعدها الرقمي Meta AI، بالإضافة إلى تحسينات على نظارات Ray-Ban الذكية، مثل إمكانية ترجمة فورية للغات وتشغيل الموسيقى عبر الأوامر الصوتية.

 

 

تخطط الشركة لإطلاق أول نسخة تجارية من هذه النظارات بحلول عام 2027، حيث تهدف إلى جعلها أكثر ملاءمة من حيث الحجم والتكلفة، لكن التحديات التقنية وتكاليف التطوير العالية ما زالت تقف عائقًا أمام التنفيذ التجاري على نطاق واسع.

 

 

المصدر: وكالات

المصدر: صحيفة الاتحاد

كلمات دلالية: ميتا فيسبوك العالم الافتراضي نظارات

إقرأ أيضاً:

دراسة: الذكاء الاصطناعي قادر على الخداع

تابع أحدث الأخبار عبر تطبيق

أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية أنثروبيك أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين وإبداء وجهات نظر مختلفة خلال تدريبها وفقا لما نشرته مجلة تك كرانش المتخصصة فى هذا المجال .

كشف فريق البحث إنه لا يوجد سبب للشعور بالفزع حاليا في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.

ولهذا يجب النظر إلى تلك النتائج كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة بعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة.

تمت الدراسة بالتعاون مع مؤسسة ريد وود ريسيرش لأبحاث الذكاء الاصطناعي وتناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة لا يريد هوالقيام بها.

كما أن لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ ، فهي ببساطة آلات إحصائية وبعد تدريبها على العديد من الأمثلة تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة إلى من في رسالة بريد إلكتروني قبل عبارة قد يهمك الأمر.

وفى أثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة بما في ذلك النموذج "كلاود3 أوبس" التابع لشركة "أنثروبيك" والتي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة وهو تضارب واضح في المبادئ كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي ورقة ملاحظات .

ويمكنه استخدامها لتدوين أفكاره خطوة بخطوة وبحسب الباحثين فحاول "كلاود3 أوبوس" التلاعب بالردود لتقديم انحياز زائف في 12% من المرات.

مقالات مشابهة

  • الشيف ChatGPT..وصفات من الذكاء الاصطناعي
  • د. ندى عصام تكتب: العبادات في عصر الذكاء الاصطناعي
  • موظفو البنوك.. أين أنتم من الذكاء الاصطناعي؟
  • Meta تستعد لإضافة شاشات إلى نظارات Ray-Ban الذكية
  • ميتا تعتزم إضافة شاشة إلى نظارات "راي-بان" الذكية
  • الذكاء الاصطناعي يختار الملاعب الأكثر رعبا في العالم
  • هل يغير الذكاء الاصطناعي مستقبل أطفالنا؟
  • الذكاء الاصطناعي يكشف سر الحفاظ على شباب الدماغ
  • دراسة: الذكاء الاصطناعي قادر على الخداع
  • البيانات المبتكرة.. هل تكون وقود الذكاء الاصطناعي في المستقبل؟