جامعة محمد بن زايد للذكاء الاصطناعي تستضيف فعالية الميتافيرس بمشاركة طلبة المدارس
تاريخ النشر: 23rd, October 2023 GMT
أبوظبي في 23 أكتوبر/ وام / استضافت جامعة محمد بن زايد للذكاء الاصطناعي فعالية حول تكنولوجيا "الميتافيرس" بمشاركة نحو 300 طالب من مدارس الدولة، وذلك بهدف تعريفهم بالتكنولوجيا التوليدية واطلاعهم على إمكاناتها في مجال الإبداع، وذلك في إطار الجهود التي تبذلها الجامعة لجعل الذكاء الاصطناعي بمتناول جيل الشباب القادم.
وحملت الفعالية عنوان "هل يعطينا الذكاء الاصطناعي قدرات خارقة؟"، حيث شهد الطلاب قصة تفاعلية تشرح كيفية عمل نموذج "جيس"، وهو النموذج اللغوي الكبير للّغة العربية الذي أطلقه الشهر الماضي المعهد التأسيسي للذكاء الاصطناعي التابع لمجموعة "جي 42"، بالتعاون مع شركة "سيريبراس سيستمز" ومقرها الولايات المتحدة، وجامعة محمد بن زايد للذكاء الاصطناعي.
خلال الحدث، أُجري استبيان شمل الطلاب المشاركين الذين تتراوح أعمارهم بين 12 و15 عاماً، وصرّح غالبية المشاركين فيه (77%) أن جيلهم يحتاج إلى مهارات الذكاء الاصطناعي لتأمين فرص عمل في المستقبل بعد إنهاء دراستهم.
وقال سلطان الحجي، نائب رئيس الجامعة للشؤون العامة وعلاقات الخريجين، الذي افتتح الفعالية: "نأمل أن ينضم هؤلاء الطلاب إلى جامعة محمد بن زايد للذكاء الاصطناعي في المستقبل، فدولة الإمارات تعد إحدى الدول الوحيدة في العالم التي دمجت استراتيجية الذكاء الاصطناعي في صلب رؤيتها الوطنية، ويعد تعزيز الكفاءات والمعارف في مجال الذكاء الاصطناعي لدى الشباب عنصر أساسي لتحقيق الأهداف الاقتصادية والاجتماعية للدولة".
خلال الفعالية، استعرض الدكتور هاو لي، وهو أستاذ مشارك في قسم الرؤية الحاسوبية ومدير مختبر الميتافيرس في جامعة محمد بن زايد للذكاء الاصطناعي، تاريخ الذكاء الاصطناعي بشكلٍ موجز، ووصف كيف أن هذه التقنية تفيد المستهلك والصناعات في الوقت نفسه.
كما استعرض مختلف الوسائل التي يساهم الذكاء الاصطناعي من خلالها في تحسين حياة البشر، مثل أتمتة بعض المهام لتمكين الإنسان من إطلاق العنان لإبداعه في أعمال إبداعية أكثر تعقيداً. بالإضافة إلى ذلك، عرض لي برنامجاً متقدماً للغاية قائماً على الذكاء الاصطناعي يستطيع توليد صور رمزية (أفاتار) ثلاثية الأبعاد وغامرة تساهم في تعزيز فرص التعلم، وسلّط الضوء على البحوث التي يجريها العلماء في جامعة محمد بن زايد للذكاء الاصطناعي بهدف ابتكار تطبيقات مستقبلية قائمة على الذكاء الاصطناعي تتعلق بمجال الحضور عن بعد وتبني اللغات، الأمر الذي سيساعد في تطوير قطاع التعليم.
من جهته، ناقش ماركو تيمبيست، وهو متخصص في تقنيات الإبداع في مختبر الدفع النفاث التابع لوكالة ناسا، وخريج برنامج زملاء المديرين في مختبر "ميديا لاب" التابع لمعهد ماساتشوستس للتكنولوجيا، بعض أعماله في مجال التقنيات التحويلية، بما في ذلك عالم الميتافيرس وعلم الروبوتات والذكاء الاصطناعي لتقديم تجارب فريدة من نوعها.
وتماشياً مع مهمة جامعة محمد بن زايد للذكاء الاصطناعي التي تتمثل في دعم المواهب وتعزيز الاقتصاد القائم على الذكاء الاصطناعي داخل الدولة، أشار 68% من الطلاب المشاركين إلى أن الجلسة قد جعلتهم يفكرون في العمل في مجال الذكاء الاصطناعي.
رضا عبدالنور/ أحمد جمالالمصدر: وكالة أنباء الإمارات
كلمات دلالية: جامعة محمد بن زاید للذکاء الاصطناعی الذکاء الاصطناعی فی مجال
إقرأ أيضاً:
المشكلة الأخلاقية للذكاء الاصطناعي وتساؤلات الفلسفة ومقارباتها
بات مشهدُ الذكاءِ الاصطناعي في زمننا الراهن ذا بعد فلسفي وأخلاقي عميق يستدعي مراجعتنا للأطر الفلسفية التي وجَّهت الإنسانَ عبر التاريخ إلى رسم معايير للسلوك الأخلاقي؛ لنستحضر بعضًا من أهم هذه الأطر الفلسفية التي أنتجها فلاسفةٌ بارزون مثل «إيمانويل كانط» المتمثّل بمشروعه الذي يُعرف بالأخلاقيّة الكانطيّة، و«جون ستيوارت ميل» في النفعيّة (Utilitarianism)، وأرسطو في أخلاقيات الفضيلة. سنحاول أن نقحمَ هذه الأطرَ الفلسفية ومشروعاتها الأخلاقية في التساؤلات المتعلقة بالذكاء الاصطناعي ونختبرها في العملية الأخلاقية الرقمية، وسنحاول أن نكتشف آلية تفاعل هذه المنطلقات الفلسفيّة مع واقع الخوارزميات القادرة على التعلُّم واتخاذ القرارات المصيريّة.
تستندُ فلسفة كانط الأخلاقيّة إلى جوهرٍ فلسفي يُعرَفُ باسم «الواجب المُطلَق» (Categorical Imperative)، ويمكن تفسير مقصده بأهمية تصرّف الإنسان الفرد وفقَ قاعدةٍ يمكن أن تصبح قانونًا جمعيا يسري على الجميع، ويفترض «كانط» أنّ الأخلاق لا تعتمد على النتائج أو الغايات، ولكن على نيّة الفاعل ومطابقة فعله للواجب الأخلاقي، ومن هذا المنطلق، تتربّع الإرادة الخيّرة المستوى الأعلى في فلسفة «كانط»؛ فيكون الفعلُ أخلاقيًا حال اعتماده احترام القانون الأخلاقي، وليس لأجل منافع أو مكاسب محتملة. عند محاولتنا لتمثيل هذا التصوّر الكانطيّ في الأخلاق على الذكاء الاصطناعي، نلحظ أنّه يفرض شروطًا صارمةً على خوارزميات الكائن الرقمي؛ فحال أننا أقدمنا على توظيف مبدأ «الواجب المطلق» في خوارزمية ذكيّة، فينبغي أن تكون هذه الخوارزمية موجهّةً إلى الانقياد لقواعدَ أخلاقيّة تُعامل الإنسان باعتباره غايةً في ذاتها لا مجرّد وسيلة، وبتصور أدق، لا ينبغي للخوارزمية الذكية أن تتخذ قراراتٍ ضارة بالبشر مهما كانت المنافع أو المكاسب المحتملة. لكن، ينبثق تساؤلٌ مهم: أتستطيع الآلة امتلاك «إرادةٍ خيّرة» وفقَ قاعدة «كانط» الأخلاقية؟ حيث تتعلق الإرادة برمتها بكينونة العقل الأخلاقي الواعي، وهنا لا ترتبط فلسفة «كانط» برصد نتيجة الفعل، ولكنها تركّز على النيّة الكامنة في باطنها؛ فيتطوّر السؤالُ: أيمكن لخوارزميات الذكاء الاصطناعي ذات البيانات الكبيرة والمنطق الرياضي أن تنفّذَ «النيّة» الخيّرة؟ أم ستظلّ حبيسةَ مسارات محدّدة سلفًا، مهما بدت مرنةً أو قادرةً على التعلُّم؟
في حين أننا نجدُ الأخلاقيّةَ النفعيّة لصاحبها الفيلسوف «جون ستيوارت ميل» تنحى منحى يشير إلى أن السعادة الكبيرة تتحقق عبر السلوك الأخلاقيّ، وبالتالي فلا قيمة يمنحها هذا المذهب الفلسفي إلا للنتائج دون الحاجة لوجود النيّات؛ فتقوميه للأفعال وفق معايير المنفعة الشاملة الناتجة، حتى لو استلزم الأمر في بعض الأحيان التضحية بمصلحة الأفراد من أجل الصالح العام. على عكس ما وجدناه في فلسفة «كانط» الأخلاقية؛ فإن الفلسفة النفعية تُظهر بعض المواءمة مع منطق خوارزميات الذكاء الاصطناعي؛ حيثُ تعتمد الخوارزميات -من حيث المبدأ الرياضي- مبدأ التحسين (Optimization) للمخرجات والنتائج، ولكن تقبع المشكلة في مبدأ مفهوم «السعادة» أو «المنفعة» عند الحديث عن مجتمعاتٍ تتباين في القيم والثقافات، وحينها من سيعرّف المنفعة؟ ومن يقرّر مستوى أهميّة سعادة مجموعة بشريّة قياسًا بمجموعات أخرى؟ بجانب أنّ البيانات التي تتعلّم منها الخوارزمية يحتمل احتواؤها على تحيّزات تاريخيّة أو ثقافيّة أو عرقيّة، فتقود إلى قرارات غير متكافئة بين فئات الناس. في مثل هذا السيناريو الواقعي، ستكون عملية الانتقال من الفضاء النظريّ -«المعنيّ بتحقيق السعادة للبشر»- إلى الفضاء الواقعي عمليةً مضطربةً من حيثُ عدم جدوى التطبيق الأخلاقي وتحققه المطلق، لأنّ توجيه الخوارزمية وفق غاية نفعيّة صِرفة يقود إلى مظاهر غير عادلة ولا أخلاقية تُفقد بعض الفئات حقوقها، ومن هذا المنطلق، يزداد السؤالُ الأخلاقي تعقيدا؛ فنسأل: هل تقبلُ مجتمعاتنا أن تُترجَم مبادئ المنفعة إلى خوارزميات تُمنح أولوية مضاعفة المنافع الاقتصادية وتحقيق مصالح سياسية أكبر، ولو على حساب منافع أفراد ومجتمعات يمكن أن تتضرر؟
تأتي «الفضيلة» عند «أرسطو» في مقدمة أولويات الفلسفة الأخلاقية؛ فيرى «أرسطو» أن الإنسانَ الأخلاقيّ هو مَن يكتسبُ الخُلقَ القويم ويطوِّر دوافع داخلية تمكِّنه من بلوغ السلوك المعتدل والأخلاقي، ولا ضرورة عند «أرسطو» بالواجب المطلق ولا بتحقيق المنفعة قدر ضرورة التركيز على تشكيل الإنسان الفاضل الأخلاقي عن طريق تحقيق التموضع الأخلاقي مع الواقع العملي واتخاذ القرار الأخلاقي المناسب وفقَ مقتضيات «الفضيلة»، ويقترب مبدأ الفضيلة الأرسطي من المكنون الإنساني المتعلق باتخاذ القرارات، وأهمية الجمع بين الخبرة والعقل والقيم المجتمعيّة. أمام تدفقات خوارزميات الذكاء الاصطناعي وزحفها المتسارع، تخرج إلينا الفلسفةُ الأرسطية في الأخلاق بتساؤل يناقش قدرة الخوارزمية الرقمية على تطوير «فضائلَ» تُماثل الفضائل التي ينتجها الإنسانُ ويمتلكها، ورغم إقرارنا بأنّ الخوارزميات الحديثة تتبنى «التعلّم العميق» المتمثّل في المحاكاة أو التعزيز (Reinforcement Learning) في منهج أقرب وصفا إلى «التربويّ»، ومع ذلك، فتتطلب الفضيلة الأرسطيّة خبرةً في الحياة ومَلَكةً إدراكيّةً ومعرفيّةً لعقلنة الموقف الأخلاقي وبعثه مسارًا ينبض بالحياة، وما نشير إليه بـ«التعلّم العميق» يمكن أن يوافق -في بعض الحالات- هذا المراد بمحاكاته لسلوكيات متوائمة مع المسار الأخلاقي المنشود، مع إقرارنا بافتقاره إلى «الفطنة الأخلاقية» وفق الشروط الأرسطيّة التي تعمل على تحقيق التوازن بين الغايات وتبايناتها وقيمها المتعددة مثل قيمة العدل والإحسان والرحمة كما يقتضي الواقع ويتطلب، ولا أتصوّر أننا قادرون على تحقيق هذا التوازن بمضمونه المطلق كون الخوارزميّات مصممة على التفاعل مع بيانات رقميّة معزولة عن خبرة الشعور الإنساني وأخلاقياته العميقة التي لا تترجمها البيانات ولن تستطيع لفقدانها قدرة ترجمة الوعي وأبجدياته المعقّدة.
عبر محطاتنا الفلسفية الثلاث الآنفة، يمكن أن نستنتج فشل هذه الفلسفات الثلاث في حل المشكلة الأخلاقيّة للذكاء الاصطناعي؛ فيستعرض كلٌّ منها مسارَه الخاص الذي يظهر عنصرًا ويفتقد العناصر الأخرى؛ فتبرز الأخلاقيّةُ الكانطيّة الكرامةَ الإنسانية وأولويّة المبادئ المعززة لحقوق الإنسان، وتذهب نفعية «ستيوارت» إلى تقديم أدواتٍ منهجيّةٍ لتقويم الأفعال وفقَ نتائجها، ويمكن أن يستفيد من مذهب النفعية الخوارزميات التي تتطلب اتخاذ قراراتٍ حساسة في زمنٍ وجيز مثل أنظمة القيادة الذاتيّة أو توجيه الطائرات من دون طيّار، وتغمرنا فضيلةُ «أرسطو» بفيضها الأخلاقي وبأهمية تشكيل الإنسان الأخلاقي المفعم بالقيم والعاطفة والعقلانية؛ لتؤكد على أن مبدأ الأخلاق ليس عمليةً حسابيّةً يمكن اختزالها في مجموعةِ نتائج ومخرجات. لكن مع التطويرات المصاحبة للذكاء الاصطناعي وخوارزمياته المتقدّمة، يستفز عقولَنا سؤالٌ أعمق: أيّ نوعٍٍ من «الفعل الأخلاقيّ» يمكن لخوارزمية موجهّة مسبّقًا أن تُنتجه؟ حال أن هذه الخوارزميات مفتقرةٌ إلى وجود «النيّة» حسب الفلسفة الكانطيّة، ولا تملك مظهرًا من مظاهر «الفطنة الأخلاقية» وفقَ المذهب الأرسطيّ، ولا تعرف مشاعرَ «اللذة والألم» كما تشير نفعيّة «ستيوارت»، فهل يكفي أن نُقوّم قراراتها استنادا إلى مستويات موافقتها للقواعد القانونيّة أو المنفعة العامة؟ ألا يخشى بعضنا أنّ الاعتماد المفرط على الأنظمة الرقمية في مسائلَ أخلاقيّة معقّدة يمكن أن يكرسَ المعنى الإنسانيّ وعمقه الواعي المعتمد على فهم السياقات الوجدانية وأفكارها الواعية التي لا أستبعد وجود ذاكرتها الكونية التي تحفظ عمق التجربة الإنسانية وتمنحها المعنى الأخلاقي الذي نحن أحق أن نملك أحقيّة توجيه منتجاتنا بما فيها الذكاء الاصطناعي إلى تبنيّه؟
د. معمر بن علي التوبي أكاديمي وباحث عُماني