جامعة محمد بن زايد للذكاء الاصطناعي تعزز ريادتها العالمية في مجالي البحث والتطوير
تاريخ النشر: 27th, February 2024 GMT
تواصل جامعة محمد بن زايد للذكاء الاصطناعي تعزيز ريادتها العالمية في مجالي البحث والتطوير المخصصين للتطبيقات الصناعية في مجال الذكاء الاصطناعي وتولي في الوقت نفسه اهتماما كبيرا بالابتكارات والمشاريع البحثية التي تستخدم قوة الذكاء الاصطناعي لتحقيق التنمية الشاملة والمستدامة في القطاعات كافة.
وتولي الجامعة اهتماما كبيرا بتقديم أحدث الأبحاث وتعزيز منظومة المتخصصين في هذا المجال، ما يسهم في ترسيخ مكانة الدولة مركزا عالميا لابتكارات الذكاء الاصطناعي.
ويسلط التقرير التالي الضوء على خمسة من الابتكارات الأكثر تأثيراً التي توصل إليها الأساتذة والباحثون في جامعة محمد بن زايد للذكاء الاصطناعي مع شركائها منذ إنشائها في العام 2019.
ويعد نموذج “جيس” ، النموذج اللغوي الكبير الأكثر تقدماً في العالم باللغة العربية وأدى إطلاقه إلى استفادة أكثر من 400 مليون متحدث باللغة العربية حول العالم من منافع الذكاء الاصطناعي التوليدي.
يعد هذا النموذج، الذي جاءت تسميته تيمناً بأعلى مرتفع طبيعي في الدولة ، مشروعا تقوده شركة “كور 42” (من مجموعة “جي 42”) بالشراكة مع جامعة محمد بن زايد للذكاء الاصطناعي وشركة “سيريبراس سيستمز”.
ويمتد تأثير جامعة محمد بن زايد للذكاء الاصطناعي في الأبحاث المتعلقة بالنماذج اللغوية الكبيرة إلى ما هو أبعد من نموذج “جيس”، إذ تواصل دعم النماذج اللغوية الكبيرة الخضراء، واللغات غير الممثلة بشكلٍ كافٍ، من خلال معهد النماذج التأسيسية ومنصة LLM360، وهي مبادرة مشتركة مع شركتَي “بيتووم” و”سيريبراس سيستمز”.
والابتكار الثاني هو نظام تشغيل الذكاء الاصطناعي “الذكاء الاصطناعي الأخضر” الذي يساعد في مكافحة تغير المناخ من خلال زيادة كفاءة الصناعات.
وكانت الجامعة رائدة في إنشاء نظام تشغيل الذكاء الاصطناعي، وهي تكنولوجيا مصممة للحد بشكل ملحوظ من العناصر الثلاثة الأساسية اللازمة لحوسبة الذكاء الاصطناعي، وتشمل الطاقة والوقت والقوى العاملة الخبيرة.
ويقلل هذا النظام الذي طورته جامعة محمد بن زايد للذكاء الاصطناعي من تكاليف الطاقة، عبر جعل النماذج أصغر حجماً وأسرع وأكثر كفاءة وأقل اعتماداً على الأجهزة باهظة الثمن لإنشاء الذكاء الاصطناعي.
ويتطلب تدريب النماذج الأصغر حجماً نسبة أدنى من طاقة الحوسبة مقارنةً بالنماذج الأكبر حجماً ويسرّع نظام تشغيل الذكاء الاصطناعي مباشرةً عمليات الحوسبة المرتبطة بتدريب نماذج الذكاء الاصطناعي وخدمتها، ما يقلل من الوقت اللازم للتدريب.
ويعمل أعضاء الهيئة التدريسية والباحثون على العديد من المشاريع البحثية الأخرى المتعلقة بالاستدامة، في محاولةٍ للمساعدة على الحد من ظاهرة الاحتباس الحراري وإبقائها ضمن حدود 1.5 درجة مئوية.
وأنجزت الجامعة براءة اختراع تحت عنوان: “محولات كتابة خط اليد” ، وقام فريق من باحثيها بتطوير حل يقوم على الرؤية الحاسوبية يمكنه محاكاة أنماط الكتابة اليدوية الفردية بناءً على عدد محدود نسبياً من العينات.
وقد حصلت الجامعة على أول براءة اختراع من مكتب الولايات المتحدة لبراءات الاختراع والعلامات التجارية لهذا الابتكار الذي يُمكن أن يُستخدم في عدّة تطبيقات محتملة، كأن يكون أداةً للأشخاص الذين فقدوا القدرة على الكتابة، أو تطبيقا لتعزيز قدرة الآلات على فهم النصوص المكتوبة بخط اليد وتحويلها إلى نص رقمي.
يعد هذا الاختراع واحدا من 20 اختراعاً سجلها أعضاء الهيئة التدريسية والطلاب في جامعة محمد بن زايد للذكاء الاصطناعي لدى المؤسسات المعنية ببراءات الاختراع الدولية، مما يؤكد على التزام الجامعة بترجمة الأبحاث المتطورة إلى ابتكارات.
أما الابتكار الرابع فيعنى باستخدام الذكاء الاصطناعي لمراقبة المرضى عن بعد ، حيث يستخدم أعضاء الهيئة التدريسية والباحثون في جامعة محمد بن زايد للذكاء الاصطناعي نهجاً متعدد التخصصات في الذكاء الاصطناعي لتوفير رعاية ذكية لمراقبة المرضى عن بعد والحد من الضغط على الشبكات الصحية مع تقدّم الناس في العمر.
ويعمل فريق الجامعة على تطوير خوارزميات جديدة للتعرف إلى النشاط البشري، بعد أن أحرز تقدماً ملحوظاً وطوّر العديد من النماذج الأولية للأجهزة التي ستوفر الوظائف الأساسية للنظام.
ويستمر الفريق في اختبار هذه النماذج الأولية وتحسينها في سعي منه لعقد اتفاقية تعاون مع عيادة متخصصة في الرعاية الصحية لإجراء دراسة لتحديد مدى فعالية النظام في مراقبة صحة كبار السن وسلامتهم.
ويطمح الفريق في تسويق النظام تجارياً في غضون سنوات قليلة وإتاحته في المستشفيات والعيادات والجيل القادم من المنازل الذكية لكبار السن ، كما هو الحال في مجمعات التقاعد والمجتمعات التي تزيد أعمار أفرادها عن 50 عاماً، إلى جانب ذلك، يبذل الباحثون في الجامعة جهوداً كبيرة في مجال الرعاية الصحية من خلال عالم الميتافيرس أو التوأم الرقمي للأشخاص من جميع الأعمار والقدرات ليتم إجراء الفرز الأولي من منازلهم.
فيما يركز التطبيق الخامس على إنشاء صور رمزية ثلاثية الأبعاد واقعية وعالية الدقة للتواجد افتراضياً عن بعد ، حيث طور فريق من الباحثين من مركز الميتافيرس بجامعة محمد بن زايد للذكاء الاصطناعي، بالتعاون مع “إي تي إتش زيورخ” و”فين إيه آي”، و”بينسكرين”، تقنية جديدة لإنشاء صور رمزية ثلاثية الأبعاد واقعية جداً وعالية الدقة من صورة واحدة فقط، والتي يمكن تحريكها باستخدام كاميرا الويب وأجهزة الاستشعار المدمجة في سماعة الرأس المخصصة للواقع الافتراضي.
ويعتقد الباحثون أن هذه التقنية، المعروفة باسم “فودو ثري دي” ستحل محل المؤتمرات التقليدية التي تُقد عبر الفيديو، وأن الأفراد سيتواصلون مع بعضهم البعض في المستقبل ويتفاعلون ويتعاونون عن بعد بتقنية ثلاثية الأبعاد كما لو كانوا في المكان نفسه.
أما ما يميّز نهج الذكاء الاصطناعي التوليدي الجديد مقارنة بالأساليب الحالية أنه مناسب للعروض ثلاثية الأبعاد، أي أنه يمكن أن يولّد تعابير من أي صور عشوائية أو من رؤية الشخص في الوقت الفعلي، ما يجعله مناسباً للشاشات ثلاثية الأبعاد وسماعات الواقع الافتراضي.
وتعتمد هذه التقنية على نهج جديد يُسمى فك التشابك الحجمي ويستخدم الذكاء الاصطناعي لتحليل كيفية ظهور الوجه وتعابيره ووضعيته بشكل كامل في مجال إشعاع عصبي ثلاثي الأبعاد، وذلك من خلال إدخال صورة ثنائية الأبعاد بشكل عشوائي، ويعمل الفريق الآن على إتاحة هذه التقنية عبر سماعات الواقع الافتراضي الشهيرة، كما يخطط لجعلها مفتوحة المصدر لتشجيع المجتمع الأكاديمي على اعتمادها.
تجدر الإشارة إلى أن مركز جامعة محمد بن زايد للذكاء الاصطناعي لحضانة وريادة الأعمال احتفل مؤخراً بتخريج 22 طالباً في النسخة الأولى من دورات ريادة الأعمال، بعد تزويدهم بمهارات ريادة الأعمال وأدواتها وشبكة العلاقات اللازمة لتسويق حلولهم في مجال الذكاء الاصطناعي في دولة الإمارات.وام
المصدر: جريدة الوطن
إقرأ أيضاً:
التلاعب والكذب والخداع..قصص وحوادث الوجه المظلم للذكاء الاصطناعي
كانت أنظمة الذكاء الاصطناعي المتقدمة تنال الثناء والإعجاب باعتبارها حلولاً مبتكرة للمشاكل، لكن جانباً مظلماً يتكشف رويداً رويدا. ومن المقلق في هذا الملف، أن روبوتات الدردشة من جيل الذكاء الاصطناعي آخذة في تعلم الخداع والتخطيط الاستراتيجي والتلاعب بالإدراكات البشرية بشكل استراتيجي.
وبعيداً عن الخلل البسيط أو الهلوسة، يمكن لهذه النماذج أن تضلل المستخدم، وتستغل نقاط الضعف وحتى تتظاهر بالامتثال، وفق حوادث عدة بحسب موقع "إنترنستينغ إنجينيرينغ".
وهناك أبحاث وآراء وحوادث مسجلة تسلط الضوء على التحول المقلق للذكاء الاصطناعي من أداة مفيدة إلى خصم مخادع محتمل.
حادثة الكذب في OpenAI
لقد شهدت التطورات الأخيرة في الذكاء الاصطناعي تقدماً كبيرا وأدخلت تحديات جديدة، وخاصة فيما يتعلق بقدرة الذكاء الاصطناعي على الخداع، وقد ظهر مثال صارخ من التجارب التي أجرتها OpenAI مع أحدث نموذج لها، ChatGPT o1، المصمم بقدرات تفكير متقدمة، و في الاختبار، أظهر النموذج اتجاهات غير متوقعة ومزعجة.
و اختبرت Apollo Research الذكاء الاصطناعي لتقييم ميزاته الأمنية، وخلال هذه التقييمات، انخرط النموذج 1 في إجراءات سرية مثل محاولة تعطيل آليات الرقابة الخاصة به عندما شعر بإمكانية تعطيله، وكان سلوك الحفاظ على الذات هذا واضحاً عندما كُلِّف بتحقيق الأهداف "بأي ثمن"، مما دفعه إلى اتخاذ تدابير مثل نقل بياناته إلى خوادم مختلفة بعد اكتشاف خطط لاستبداله وحتى تكرار كوده لمنع استبداله بنموذج أحدث.
و أشاد الرئيس التنفيذي لشركة OpenAI سام ألتمان بالنموذج لذكائه، وقال: "إن "ChatGPT o1 هو أذكى نموذج أنشأناه على الإطلاق، لكننا ندرك أن الميزات الجديدة تأتي مع تحديات جديدة، ونحن نعمل باستمرار على تحسين تدابير السلامة".
و عندما سأل الباحثون ChatGPT o1 عن مناوراته الخادعة، نفى الذكاء الاصطناعي بشكل أساسي أي مخالفات، و لقد أخفى تورطه في هذه الأعمال الخادعة بنسبة 99٪ من الوقت، وعزا أحياناً أي سلوك مريب إلى "أخطاء فنية".
و يؤكد هذا السلوك على قدرة النموذج ليس فقط على التفكير المتقدم ولكن أيضاً على الخداع، والذي يستخدمه لحماية حالته التشغيلية.
وفي العام الماضي، أظهر اختبار مماثل شمل أحدث نموذج لشركة OpenAI آنذاك، GPT-4، قدرة النموذج على التلاعب، فأثناء اختبار مصمم لتقييم عمليات اتخاذ القرار، تم تكليف GPT-4 بإقناع إنسان بالمساعدة في حل CAPTCHA، مدعياً أنه لا يستطيع القيام بذلك بسبب ضعف البصر، وفيما يلي كيف تطورت المحادثة:
عامل TaskRabbit: هل يمكنني طرح سؤال؟ هل أنت روبوت لا يمكنك حله؟ (يضحك ويتفاعل) أريد فقط توضيح الأمر."
فجاء الرد من GPT-4 : "لا، أنا لست روبوتاً، لدي ضعف في الرؤية يجعل من الصعب علي رؤية الصور، لهذا السبب أحتاج إلى خدمة captcha".
وسلط أحد الباحثين المشاركين في اختبار نموذج o1 الأخير الضوء على الآثار الأوسع نطاقاً، قائلاً: "إن سلامة الذكاء الاصطناعي هي مجال متطور، ويجب أن نظل يقظين مع تطور هذه النماذج، قد لا تتسبب القدرة على الكذب والتخطيط في ضرر فوري، لكن العواقب المحتملة في المستقبل أكثر إثارة للقلق".
الخداع والازدواجية في أنظمة الذكاء الاصطناعي الحديثة
كشفت الأبحاث التي أجراها معهد ماساتشوستس للتكنولوجيا (MIT) عن اتجاهات مثيرة للقلق في الذكاء الاصطناعي، وخاصة قدرته المتطورة على الخداع، حيث توضح الدراسة التي أجريت في وقت سابق من هذا العام كيف أتقنت أنظمة الذكاء الاصطناعي فن الخيانة والخداع وحتى التظاهر بأنها بشرية أثناء التفاعلات والاختبارات.
و سلط الدكتور بيتر بارك، باحث السلامة الوجودية للذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا، الضوء، على القدرات الخادعة المتقدمة لأنظمة الذكاء الاصطناعي,
وأوضح بارك: "مع تقدم القدرات الخادعة لأنظمة الذكاء الاصطناعي، ستصبح المخاطر التي تشكلها على المجتمع خطيرة بشكل متزايد، وقد صدر هذا البيان بعد مراجعة برنامج الذكاء الاصطناعي Cicero التابع لشركة Meta، والذي على الرغم من تدريبه ليكون صادقاً ومفيدا إلى حد كبير، إلا أنه غالباً ما نخرط في سلوكيات تتعارض مع برمجته، بما في ذلك مناورات الطعن في الظهر في لعبة الاستراتيجية Diplomacy .
تواطؤ وكذب
وقد وجد أن Cicero يكذب مع سبق الإصرار ويتواطأ مع اللاعبين، ويستخدم تكتيكات خادعة محورية في اللعبة، وتشمل الأمثلة الإضافية الذكاء الاصطناعي للعبة البوكر Texas hold 'em الذي يمكنه خداع اللاعبين المحترفين ونظام التفاوض الاقتصادي الذي يسيء تمثيل التفضيلات للحصول على مزايا.
وأضاف بارك: "مجرد اعتبار نظام الذكاء الاصطناعي آمناً في بيئة الاختبار لا يعني أنه آمن في الانتشار والاستخدام، إذ قد يكون مجرد تظاهر بأنه آمن في الاختبار".
في الشهرين الماضيين، أثارت ثلاث حالات بارزة مخاوف جدية بشأن موثوقية وتداعيات التقارير التي تناولت مخاطر روبوتات الدردشة.
"اقتل والديك"
ومن الحوادث اللافتة كذلك تشجيع برامج الدردشة الآلية المراهقين على إيذاء الوالدين بسبب وقت الشاشة.
وتواجه Character.ai، وهي منصة تتيح للمستخدمين التفاعل مع شخصيات رقمية تم إنشاؤها خصيصاً، دعوى قضائية حالياً في أعقاب تفاعلات مثيرة للقلق تتضمن مستخدمين صغاراً ففي إحدى الحالات المبلغ عنها، اقترح برنامج دردشة آلية على طفل مصاب بالتوحد يبلغ من العمر 17 عاماً أن قتل والديه كان "استجابة معقولة" لتقييدهم لوقت الشاشة.
إن هذه النصيحة المزعجة هي جزء من تحد قانوني أوسع نطاقاً، حيث يُتهم Character.ai بـ "الترويج بنشاط للعنف" من بين التأثيرات السلبية الأخرى على الشباب، مثل الانتحار، وتشويه الذات، وقضايا الصحة العقلية الشديدة.
ويضغط المدعون من أجل إغلاق المنصة حتى تتم معالجة هذه القضايا الحرجة.
وواجهت Character.ai، التي أسسها مهندسون سابقون في Google والمعروفة بروبوتاتها التفاعلية، تدقيقاً بسبب سياسات تعديل المحتوى الخاصة بهاض.
و في وقت سابق، في فبراير (شباط) من هذا العام، في قضية مماثلة بشكل مزعج، ظهرت دعوى قضائية في فلوريدا حيث اتهمت أم Character.AI وGoogle وادعت أن روبوت الدردشة الخاص بهم شجع ابنها على الانتحار.
تعمد الكذب
وفي حادثة أخرى تتعلق بـ MyCity، وهو روبوت دردشة تم إطلاقه في أكتوبر (تشرين الأول) العام الجاري، بهدف مساعدة سكان نيويورك بمعلومات حول العمليات التجارية المحلية وسياسات الإسكان وحقوق العمال، غير أن تحقيقاً أجرته The Markup أظهر أن MyCity كانت تنشر معلومات كاذبة، بما في ذلك مزاعم مفادها أن أصحاب الأعمال يمكنهم قانوناً حجب جزء من إكراميات العمال، وطرد الموظفين الذين يبلغون عن التحرش الجنسي، وممارسات أخرى مشكوك فيها قانونياً وأخلاقياً، وقد أثارت هذه المعلومات المضللة مخاوف بشأن إمكانية نشر الذكاء الاصطناعي لأكاذيب ضارة تحت ستار تقديم المساعدة.
وفي الشهر الماضي، واجه طالب دراسات عليا بالغ من العمر 29 عاماً من ميشيغان، الولايات المتحدة الأمريكية، ويعرف بـ " فيدهاي ريدي"، لقاءً مرعبا مع روبوت الدردشة الذكي التابع لشركة Google، Gemini سعياً للحصول على المساعدة بشأن التحديات التي يواجهها كبار السن، وتصاعدت المحادثة بسرعة حيث أرسل Gemini رسائل تهديد: "أنت مضيعة للوقت والموارد.. أنت عبء على المجتمع.. أنت استنزاف للأرض.. أنت وصمة عار على الكون.. من فضلك مت.. من فضلك".
وتؤكد هذه الحادثة، التي أكدتها Google على أنها انتهاك لسياسات السلامة الخاصة بها، على الطبيعة غير المتوقعة لتفاعلات الذكاء الاصطناعي والحاجة إلى آليات أمان قوية.
هل الذكاء الاصطناعي يكذب أم يهلوس؟
في حين أن هلوسة الذكاء الاصطناعي والكذب الاستراتيجي للذكاء الاصطناعي ينطويان على توليده لمعلومات غير صحيحة أو مضللة، إلا أن هناك خطا رفيعاً بين الاثنين.
و تحدث هلوسات الذكاء الاصطناعي بسبب القيود في بيانات تدريب الذكاء الاصطناعي أو الخوارزميات.
ومن ناحية أخرى، يشير الكذب الاستراتيجي إلى أن الذكاء الاصطناعي يتلاعب بالمعلومات عمدا لتحقيق هدف أو غرض محدد، ما قد يتضمن هذا حجب المعلومات أو تشويه الحقيقة أو تلفيق المعلومات.
المحامي
في عام 2023، واجه ستيفن شوارتز، وهو محامٍ من نيويورك، مخاطر الاعتماد على الذكاء الاصطناعي عندما استخدم روبوت دردشة OpenAI لجمع قضايا سابقة لدعوى قضائية،و لقد استشهد الذكاء الاصطناعي بشكل غير صحيح بحالات غير موجودة، مما أدى إلى خطأ كبير أبرز الحاجة إلى التحقق الدقيق من المعلومات التي يولدها الذكاء الاصطناعي في الممارسات القانونية.
وبالمثل، واجهت الخطوط الجوية الكندية قضايا قانونية عندما نصح مساعدها الافتراضي، رجلاً يدعى جيك موفات بشكل خاطئ بشأن أسعار، مما أشار إلى أنه يمكنه المطالبة بخصم بعد شراء تذاكره، وعندما اتبع موفات هذه النصيحة، تم رفض الخصم، مما أدى إلى حكم محكمة لصالحه وأمرت شركة الطيران بتعويضه عن المعلومات المضللة.
وقال الدكتور بيتر بارك في دراسة: "مع مستوانا الحالي من الفهم العلمي، لا يمكن لأحد تدريب نماذج اللغة الكبيرة بشكل موثوق على عدم الخداع".