"ميتا" تضيف الذكاء الاصطناعي إلى نظارتها الذكية
تاريخ النشر: 13th, December 2023 GMT
كشفت شركة /ميتا/ المالكة لموقعي /فيسبوك/ و/إنستغرام/ للتواصل الاجتماعي عن إضافة الذكاء الاصطناعي إلى نظارتها الذكية التي تصنعها بالشراكة مع شركة النظارات المميزة /راي بان/.
وتختبر الشركة الذكاء الاصطناعي المتعدد الوسائط في المرحلة التجريبية عبر برنامج وصول مبكر في الولايات المتحدة، ومن المقرر أن تطلق ميتا في عام 2024 الذكاء الاصطناعي المتعدد الوسائط الجديد علنا.
وقال أندرو بوسورث، كبير مسؤولي التكنولوجيا في ميتا: "نطلق في العام المقبل، النسخة المتعددة الوسائط من مساعد الذكاء الاصطناعي الذي يستفيد من الكاميرا الموجودة ضمن النظارات، من أجل تزويدك بمعلومات بخصوص السؤال الذي طرحته، إلى جانب معلومات بخصوص العالم من حولك".
وصممت ميتا المساعد من أجل التحكم فيه عن طريق الصوت، إذ يمكن لمرتدي النظارة التحدث إلى المساعد كما لو كان مساعدا صوتيا مشابها لأليكسا من أمازون أو سيري من آبل، فقد عرض بوسورث إحدى الإمكانيات الجديدة للإصدار المتعدد الوسائط في منشوره، وشمل ذلك مقطع فيديو لنفسه وهو يرتدي النظارات ويحدق في قطعة فنية جدارية مضاءة تظهر ولاية كاليفورنيا في أحد المكاتب، وبدا وكأنه يحمل هاتفا ذكيا، مما يشير إلى أن الذكاء الاصطناعي قد يحتاج إلى هاتف ذكي مقترن بالنظارات لكي يعمل.
وأظهرت شاشة تعرض واجهة المستخدم للذكاء الاصطناعي المتعدد الوسائط الجديد أنه أجاب بنجاح عن سؤال بوسورث "انظر وأخبرني بما تراه"، وحدد الفن بأنه "منحوتة خشبية" ووصفها بأنها "جميلة"، موضحا بعض المزايا الأخرى، التي تشمل مطالبة المساعد بالمساعدة في التعليق على الصور التي التقطها أو طلب ترجمتها وتلخيصها.
كما ظهر التحديث في مقطع فيديو عبر /إنستغرام/ من خلال استجابة المساعد عبر الوصف وتقديم بعض الاقتراحات المناسبة، وترجمة النص المكتوب وعرض بعض التعليقات التوضيحية للصور.
وتعد هذه الخطوة متوقعة، نظرا إلى احتضان ميتا الشامل للذكاء الاصطناعي عبر منتجاتها ومنصاتها، وترويجها للذكاء الاصطناعي المفتوح المصدر من خلال نموذجها اللغوي الكبير Llama 2.
المصدر: العرب القطرية
كلمات دلالية: ميتا
إقرأ أيضاً:
الذكاء الاصطناعي يحوّل الأفكار إلى كلام في الوقت الحقيقي
طور علماء جهازا يمكنه ترجمة الأفكار المتعلقة بالكلام إلى كلمات منطوقة في الوقت الحقيقي بالاستعانة بزراعة دماغية تستخدم الذكاء الاصطناعي.
ورغم كون هذا الإنجاز لا يزال في مراحل تجريبية، فإنه عزز الآمال في أن تُمكّن هذه الأجهزة الأشخاص الذين فقدوا القدرة على التواصل من استعادة أصواتهم.
وسبق لعلماء في كاليفورنيا أن استخدموا واجهة دماغ حاسوبية لفك تشفير أفكار "آن"، البالغة 47 عامًا والمصابة بشلل رباعي، وترجمتها إلى كلام. ومع ذلك، كان هناك تأخير زمني قدره ثماني ثوانٍ بين أفكارها وقراءة الكمبيوتر للكلام بصوتٍ عالٍ. وهذا يعني أن إجراء محادثة سلسة لا يزال بعيدًا عن متناول "آن"، مُعلمة الرياضيات السابقة في المدرسة الثانوية التي لم تعد قادرة على الكلام منذ إصابتها بسكتة دماغية قبل 18 عامًا.
لكن النموذج الجديد، الذي طوره الفريق، والذي نُشر في مجلة Nature Neuroscience، حوّل أفكار "آن" إلى نسخة من صوتها القديم بزيادات قدرها 80 ميلي ثانية.
وقال غوبالا أنومانشيبالي، كبير الباحثين في الدراسة من جامعة كاليفورنيا، بيركلي "نهجنا الجديد في البث يُحوّل إشارات دماغها إلى صوتها آنيًا، في غضون ثانية واحدة من نيتها الكلام".
وأضاف أن هدف "آن" هو أن تصبح مستشارة جامعية. وأكد "في حين أننا ما زلنا بعيدين عن تمكين آن من ذلك، فإن هذا الإنجاز يُقرّبنا من تحسين جودة حياة الأفراد المصابين بالشلل الصوتي بشكل جذري".
في إطار البحث، عُرضت على "آن" جمل على شاشة، وكانت ترددها في ذهنها. ثم تُحوَّل أفكارها إلى صوتها، الذي شكّله الباحثون من تسجيلات صوتية لها قبل إصابتها.
اقرأ أيضا... الذكاء الاصطناعي يتفوق في رصد تشوهات الجنين
وقال أنومانشيبالي "كانت آن متحمسة جدًا لسماع صوتها".
بدوره، أوضح تشيول جون تشو، المؤلف المشارك في الدراسة، في بيان، أن واجهة الدماغ والحاسوب تعترض إشارات الدماغ "بعد أن نقرر ما نقوله، وبعد أن نقرر الكلمات التي نستخدمها، وكيفية تحريك عضلات المسالك الصوتية".
يستخدم النموذج أسلوب ذكاء اصطناعي يُسمى التعلم العميق، تم تدريبه على "آن" التي كانت تحاول سابقًا التحدث بصمت بآلاف الجمل.
ولا تزال مفردات الدراسة محدودة، إذ لا تتجاوز 1024 كلمة.
وصرح باتريك ديجينار، أستاذ الأطراف الاصطناعية العصبية في جامعة نيوكاسل البريطانية، والذي لم يشارك في الدراسة، أن هذا البحث "يُعدّ دليلًا مبكرًا جدًا على صحة المبدأ"، مضيفا أنه "رائع للغاية".
مع التمويل المناسب، قدر أنومانشيبالي أن هذه التقنية قد تساعد الأشخاص المصابين بالشلل الصوتي على التواصل في غضون خمس إلى عشر سنوات.
مصطفى أوفى (أبوظبي)