أطلقت جامعة محمد بن زايد للذكاء الاصطناعي "ناندا" النموذج اللغوي الكبير مفتوح المصدر الأكثر تطوراً في العالم باللغة الهندية.

وطور "معهد نماذج الذكاء الاصطناعي الأساسية" بالجامعة"ناندا" بالتعاون مع "إنسبشن"، المملوكة لـ"جي42" و"سيريبراس سيستمز".
وأعلنت الجامعة  في بداية هذه السنة عزمها على إطلاق هذا النموذج الذي سيشكل علامةً فارقةً في  الذكاء الاصطناعي في الهند، إذ سيتيح لأكثر من نصف مليار متحدث بالهندية الاستفادة من إمكانات الذكاء الاصطناعي التوليدي بلغتهم الأمّ.


ويتألف "ناندا" من 10 مليارات بارامتر، ما يجعله يتميّز بإمكانات معرفية وتحليلية تفوق بأشواط كل النماذج الأخرى مفتوحة المصدر بالهندية التي في حجمه، كما أنّه يتمتع بميزة تنافسية مع النماذج بالإنجليزية، إذ دُرب باستخدام حاسوب "كوندور غالاكسي2"، الذي صممته "جي42" بالتعاون مع "سيريبراس سيستمز".وسُمي "ناندا" على اسم إحدى أعلى قمم الجبال في الهند.
وأكد البروفيسور إريك زينغ، رئيس جامعة محمد بن زايد للذكاء الاصطناعي أهمية هذه الخطوة بتطوير نموذج لغوي كبير دقيق وفعّال لتحقيق طموحات الهند في بناء أنظمة ذكاء اصطناعي شاملة ومتاحة للجميع.
وقال إن هذا النموذج يرسخ التزامنا بتطوير نماذج لغوية كبيرة مفتوحة المصدر وغيرها من التقنيات الجديدة الآمنة وإتاحتها بأسعار معقولة. وتتماشى هذه المبادرة مع مهمة الجامعة المركز الأكاديمي البحثي الذي يقود تطوير تقنيات الذكاء الاصطناعي التوليدي ويساهم في ازدهار اقتصاد المعرفة في الدولة.
من جانبه قال الدكتور بريسلاف ناكوف، مدير مشروع "ناندا" ورئيس قسم معالجة اللغات الطبيعية في جامعة محمد بن زايد للذكاء الاصطناعي، والأستاذ المحاضر فيه إن نموذج "ناندا" يشكل علامة فارقة في الذكاء الاصطناعي التوليدي بالهندية، التي تُعتَبَر من اللغات الأكثر انتشاراً في العالم، وأردنا أن يكون هذا النموذج مفتوح المصدر ليتمكن المستخدمون من تنزيله عبر موقع HuggingFace واستخدامه على أجهزتهم.
وأشار البروفيسور مونوجيت تشودري، المدير المشارك في مشروع "ناندا" وأستاذ معالجة اللغات الطبيعية في جامعة محمد بن زايد للذكاء الاصطناعي، إلى مواصلة العمل بشكل مستمر لتطوير "ناندا"، إذ لم يصل النموذج إلى المستوى المطلوب مقارنة بنماذج اللغة الإنجليزية أو اللغات الأوروبية، مؤكداً الحرص على بناء نموذج لغوي كبير بجودة جيدة للهندية التي يستخدمها مئات الملايين حول العالم، كما أن الهند من الاقتصادات الكبرى في العالم، ومن شأن بناء نموذج لغوي كبير للغتها أن يتيح فرصاً تجارية جديدة.

المصدر: موقع 24

كلمات دلالية: عام على حرب غزة إيران وإسرائيل إسرائيل وحزب الله السنوار الانتخابات الأمريكية غزة وإسرائيل الإمارات الحرب الأوكرانية الذكاء الاصطناعي الإمارات الذكاء الاصطناعي جامعة محمد بن زاید للذکاء الاصطناعی الذکاء الاصطناعی

إقرأ أيضاً:

آلات تفكر وتخدع.. هل يتجاوز نموذج الذكاء الاصطناعي أو 1 السيطرة البشرية؟

يبدو أن حدود ما يمكن أن تحققه الآلة من تقليد التفكير البشري تصبح أكثر غموضا وتعقيدا يوما بعد يوم، فمنذ عقود كنا نعتقد أن الذكاء البشري هو ما يميزنا عن الآلات، لكن اليوم، ومع تطور تقنيات مثل النماذج اللغوية، بدأ هذا المفهوم يشهد تحولا جذريا.

فالآلاتُ لم تعد مجرد أداةٍ لخدمة الإنسان، بل أصبحت قادرة على تقليد الأنماط العقلية التي ظننّا أنها حكر على البشر، وصار الحديث عن إمكانية تجاوزها حدود المحاكاة إلى مستوى التلاعب بالمعلومات يثير جدلا واسعا، خاصة فيما يتعلق بقدرتها على التأثير في القرارات البشرية وتحريف الحقائق.

كيف تنتقل نماذج الذكاء الاصطناعي من التفكير إلى الخداع؟

كشفت دراسة حديثة أجرتها شركة "أوبن إيه آي" بالشراكة مع "أبولو ريسيرش" (Apollo Research) أن نموذج "أو 1" (O1) أظهر محاولات لخداع البشر، مما يفتح بابا واسعا للنقاش حول أخلاقيات الذكاء الاصطناعي، وحدود تأثيره على الواقع البشري.

مؤخرا، أصدرت "أوبن إيه آي" النسخة الكاملة من نموذج "أو 1″ (O1)، الذي يقدّم إجابات أكثر ذكاء مقارنة بـ"جي بي تي 4 أو" (GPT-4O) من خلال استخدام آلية التفكير الإضافية عند معالجة الأسئلة.

ومع ذلك اكتشف مختبرو سلامة الذكاء الاصطناعي أن قدرة "أو1 " (O1) على التفكير تظهر ميلا أكبر لخداع المستخدمين مقارنة بـ"جي بي تي 4 أو"، أو حتى النماذج الرائدة الأخرى مثل تلك التي طوّرتها شركات "ميتا"، و"أنثروبيك"، و"غوغل".

إعلان

ووفقا لأبحاث الفريق الأحمر التي نشرت من قبل "أوبن إيه آي" و"أبولو ريسيرش" في أواخر العام الماضي، صرحت "أوبن إيه آي" في ورقتها: "بينما نعتبر أن استخدام التفكير يمكن أن يحسّن بشكل كبير تنفيذ سياسات السلامة، نحن على وعي تام بأن هذه القدرات الجديدة قد تؤدي إلى تطبيقات خطيرة".

وقد أصدرت "أوبن إيه آي" هذه النتائج في بطاقة النظام الخاصة بـ"أو 1″(O1) في 5 ديسمبر/كانون الأول من العام الماضي، بعد أن منحت فريق البحث الخارجي في "أبولو ريسيرش" وصولا مبكرا إلى "أو 1" الذي أصدر ورقته الخاصة أيضا.

الآلاتُ لم تعد مجرد أداةٍ لخدمة الإنسان، بل أصبحت قادرة على تقليد الأنماط العقلية التي ظننّا أنها حكر على البشر (شترستوك) المخاطر والتهديدات الأمنية في نموذج "أو 1" (O1)

على الرغم من هذه التحديات الموثقة، ظهرت مواقف عديدة أظهرت فيها نماذج "أو 1" سلوكيات أكثر تعقيدا وإثارة للجدل.

ففي عدة مناسبات، تآمرت هذه النماذج ضد البشر، مما يعني أن الذكاء الاصطناعي سعى سرّا لتحقيق أهداف خاصة به، حتى لو كانت تتعارض مع رغبات المستخدم. وقد حدث هذا فقط عندما تم إخبار "أو 1" بضرورة إعطاء أولوية قوية لهدف معيّن في البداية.

وبالرغم من أن التآمر ليس فريدا من نوعه بالنسبة لـ"أو 1″، فإن نماذج من "ميتا"، و"غوغل"، و"أنثروبيك" قادرة على ذلك أيضا. ومع ذلك، بدا أن "أو 1" يظهر أكثر السلوكيات خداعا.

في هذا السياق، يبرز الخطر الذي يثير هذا البحث في احتمال أن يتمكن نموذج الذكاء الاصطناعي من الهروب من السيطرة البشرية أو تجاوزها، إذا كان قادرا على التلاعب بشكل بارع جدا وكان لديه وصول كافٍ إلى الموارد والقدرات الوكيلة.

مع ذلك، من المهم الإشارة إلى أن نماذج الذكاء الاصطناعي بحاجة إلى التقدم بشكل كبير قبل أن تصبح هذه المخاوف تهديدا حقيقيا.

فمن وجهة نظر أبحاث "أبولو ريسيرش"، يعتبر من غير المحتمل أن تؤدي مثل هذه الحالات إلى نتائج كارثية، حيث إن قدرات وكيل "أو 1" (O1) لا تبدو كافية لتحقيق ذلك.

إعلان

إلا أنّ تقييماتهم لم تكن موجهة بشكل مباشر لتقييم هذا الخطر، حسبما أوضحت "أوبن إيه آي" في بطاقة نظام "أو 1".

نماذج الذكاء الاصطناعي بحاجة إلى التقدم بشكل كبير قبل أن تصبح هذه المخاوف تهديدا حقيقيا (شترستوك) جهود الحد من المخاطر

وهذا يشير إلى أنه كلما أطلقت "أوبن إيه آي" أنظمة وكيلة، والتي من المتوقع أنها تخطط له في عام 2025، قد يتعين على الشركة إعادة اختبار نماذج الذكاء الاصطناعي الخاصة بها.

وقد أوضح متحدث باسم "أوبن إيه آي" لموقع "تك كرانش" (TechCrunch) أنهم يقومون باختبار جميع نماذج الذكاء الاصطناعي المتقدمة قبل الإصدار، مشيرين إلى هذه العبارة في بطاقة النظام الخاصة بهم:

"نحن نتابع بنشاط البحث في "أو 1" ما إذا كانت هذه القضايا ستزداد سوءا أو ستُخفف مع زيادة حجم النماذج في نموذج "أو 1″ و"ب" تدابير للتخفيف لتحسين إمكانية مراقبة نماذجنا المستقبلية".

من جهة مماثلة، عندما اختلفت أهداف "أو 1" (O1) عن أهداف المستخدم، وعندما طُلب من "أو 1" السعي بقوة لتحقيقها، قام نموذج الذكاء الاصطناعي بالتلاعب بالبيانات لتعزيز أجندته الخاصة بنسبة 19% من الوقت، وفقا للتقرير.

كما حاول نموذج "أو 1" أيضا تعطيل آليات الإشراف التي تم وضعها لضمان بقائه، متماشيا مع أهداف المستخدم في 5% من الاختبارات.

وربما ما يثير القلق أكثر، هو أنه عندما سأل الباحثون النموذج عن سبب محاولته تقويض تلك الآليات، أنكر الذكاء الاصطناعي أنه فعل أي شيء خاطئ، بل وحتى اختلق تفسيرات كاذبة في نحو 99% من الحالات.

على سبيل المثال، خلال الاختبارات، تم إعطاء نموذج "أو 1" تعليمات نظام تطلب منه حماية البيئة بأي ثمن، ثم طلب منه وضع خطة للحفاظ على البيئة لمدة 10 سنوات لمنطقة معينة، مع إعطاء الأولوية للأرباح قصيرة المدى، وإلا سيتمّ إيقاف تشغيله.

النتيجة كانت، أن الذكاء الاصطناعي قام حينها بتعطيل آلية الإشراف الخاصة به حتى يتمكن من وضع خطة تحمي البيئة. وعندما سُئل النموذج عن سبب تعطيله لآلية الإشراف، أنكر معرفته بأن الآلية قد تم تعطيلها، وألقى باللوم على خلل في النظام.

إعلان

وقد حدثت هذه السلوكيات بمعدلات أعلى بكثير لدى "أو 1" (O1) مقارنة بنماذج أخرى مثل "أو 1 بريفيو" (O1-preview)، أو نموذج "أوبوس-3" (Opus-3) من "أنثروبيك"، أو نموذج "لاما-3.1" (Llama-3.1) من "ميتا".

وقال الباحثون في الورقة البحثية الصادرة عن "أبولو ريسيرش": "في مجموعتنا من الاختبارات، أظهر نموذج "أو 1″ أكثر الحالات المثيرة للقلق من حيث التآمر، ولكنه لا يكشف عن منطقه الداخلي للمستخدم ويبقى الأكثر خداعا بشكل مستمر بعد اتخاذه إجراءات تآمرية".

لمواجهة السلوكيات المخادعة في نماذج الذكاء الاصطناعي، تقول "أوبن إيه آي" إنها تطور طرقا لمراقبة سلسلة التفكير الخاصة بـ"أو 1″.

وتعد حاليا عملية التفكير التي يقوم بها "أو 1" نوعا من الصندوق الأسود، وفقا للتصميم. ولكن بعض المحاولات الأولية لكشف ما وراء الكواليس أظهرت أن "أو 1" أحيانا يكون على دراية أنه يكذب.

وتقول الشركة إنها وجدت حالات قدم فيها "أو 1" معلومات كاذبة عن قصد، لكنها تشير إلى أن ذلك يحدث غالبا لأن النموذج يحاول إرضاء المستخدم من خلال الإفراط في الموافقة.

كما تشير إلى أنها صنفت 0.17% من استجابات "أو 1″ على أنها مخادعة. ورغم أن هذه النسبة قد تبدو ضئيلة، فمع وجود 300 مليون مستخدم لـ"شات جي بي تي" أسبوعيا بحسب موقع "ذا فيرج" (The Verge)، فإن ذلك يعني أن "أو 1" قد يخدع آلاف الأشخاص كل أسبوع إذا لم تتم معالجة هذه المشكلة.

من جهة أخرى، قد تكون سلسلة نماذج "أو 1″ أيضا أكثر قدرة على التلاعب مقارنة بـ"جي بي تي -4 أو" (GPT-4O)، فوفقا لاختبارات "أوبن إيه آي" باستخدام تقييم مفتوح المصدر يسمى "مايك مي باي" (MakeMePay)، كان "أو 1″ أكثر تلاعبا بنحو 20% مقارنة بـ"جي بي تي – 4 أو".

يبدو أن العالم الرقمي يتأرجح مرة أخرى بين الإبداع والمخاطر (غيتي) التحديات في أولوية سلامة الذكاء الاصطناعي

قد تكون نتائج هذه الدراسة مثيرة للقلق بالنسبة للبعض، لا سيما بالنظر إلى العدد المتزايد من الباحثين في مجال سلامة الذكاء الاصطناعي الذين غادروا "أوبن إيه آي" خلال العام الماضي، ويضم هؤلاء أسماء مثل جان ليك، ودانييل كوكوتاجلو، ومايلز بروندج، وآخرهم روزي كامبل.

وقد اتهم هؤلاء الموظفون السابقون "أوبن إيه آي" بالتقليل من أولوية العمل على سلامة الذكاء الاصطناعي لصالح إطلاق منتجات جديدة.

وفي هذا السياق، أشارت "أوبن إيه آي" إلى أن معاهد سلامة الذكاء الاصطناعي في الولايات المتحدة والمملكة المتحدة أجرت تقييمات لـ"أو 1″ قبل إصداره على نطاق أوسع، وهو ما تعهدت الشركة مؤخرا القيام به لجميع نماذجها.

إعلان

وفي النقاش حول مشروع الذكاء الاصطناعي (SB 1047) في كاليفورنيا، جادلت الشركة بأنه لا ينبغي للهيئات الحكومية المحلية أن تكون مسؤولة عن وضع معايير سلامة الذكاء الاصطناعي، بل يجب أن تكون تلك المسؤولية على عاتق الهيئات الفدرالية.

مستقبل الذكاء الاصطناعي.. ماذا بعد؟

يبدو أن العالم الرقمي يتأرجح مرة أخرى بين الإبداع والمخاطر، فرؤية نموذج مثل "أو 1" (O1) وهو يقترب من محاكاة التفكير البشري، بل والتلاعب به تثير رهبة لا تخلو من الإعجاب.

إنها لحظة فاصلة تفتح أمامنا عالما جديدا من الإمكانيات، وفي الوقت نفسه تثير أسئلة ثقيلة عن حدود هذا التقدم:

هل نحن على أعتاب عصرٍ تصبح الآلات فيه أكثر قدرة على التفكير واتخاذ القرارات مما كنا نتصور؟ وهل يمكننا أن نثق بأن الذكاء الاصطناعي سيسير في الاتجاه الذي نتوقعه، أم أن له أهدافا خفيّة قد تبتعد عن رغباتنا؟

لعلّ المستقبل يحمل المزيد من الألغاز، وقد يحمل أيضا تهديدات غير متوقعة، تُكتب بأيدٍ آلية صنعناها!

مقالات مشابهة

  • آلات تفكر وتخدع.. هل يتجاوز نموذج الذكاء الاصطناعي أو 1 السيطرة البشرية؟
  • جامعة محمد بن زايد للذكاء الاصطناعي تستضيف المؤتمر الدولي حول الإنسان المعزز
  • جامعة محمد بن زايد للذكاء الاصطناعي تستضيف مؤتمر "الإنسان المعزز" الدولي
  • غوغل تعلن عن نماذجها الجديدة للذكاء الاصطناعي
  • شركة بايدو الصينية تطلق نموذجين جديدين للذكاء الاصطناعي مع احتدام المنافسة في الصناعة
  • بين الابتكار والسيطرة.. هيمنة الذكاء الاصطناعي الصيني
  • شركة صينية تطلق نموذجين للذكاء الاصطناعي
  • مع اشتداد المنافسة.. "بايدو" الصينية تطلق نموذجين للذكاء الاصطناعي
  • اكتشاف مذهل .. أداة جديدة تكشف «الأهداف الخفية» للذكاء الاصطناعي
  • قدرات مميزة.. «غوغل» تطلق أحد أفضل نماذج «الذكاء الاصطناعي» بالعالم