السومرية نيوز – تكنولوجيا
أصدرت "ميتا بلاتفورمز"، أكبر نسخة من نماذجها للذكاء الاصطناعي (لاما 3)، وهي مجانية في الغالب وتتميز بأنها متعددة اللغات وذات مقاييس أداء عامة تنافس نماذج مدفوعة لشركات منافسة، مثل أوبن إيه.آي. وقالت ميتا المالكة لفيسبوك في منشور على مدونة وفي ورقة بحثية، تعلن عن الإصدار إن نموذج (لاما 3) الجديد يمكنه التحدث بثماني لغات، وكتابة أكواد كمبيوتر بجودة عالية وحل مسائل رياضية أكثر تعقيدا من الإصدارات السابقة.

  ويتضاءل إصدار العام الماضي أمام هذا الإصدار الذي يضم 405 مليارات مقياس أو متغير تأخذها الخوارزميات في الاعتبار لتوليد ردود على استفسارات المستخدم رغم أنه لا يزال أصغر من النماذج الرائدة للمنافسين.   فثمة أنباء أن نموذج جي.بي.تي-4 لشركة أوبن إيه.آي يضم تريليون متغير، وتستثمر شركة أمازون في نموذج يحتوي على تريليونين.   سباق محموم   ويأتي هذا الإصدار في الوقت الذي تتسابق فيه شركات التكنولوجيا لإظهار أن محافظها المتنامية من نماذج اللغات الكبيرة المتعطشة للموارد يمكن أن تحقق مكاسب كبيرة بما يكفي في مجالات تمثل إشكاليات مثل الاستدلال المتقدم لتبرير المبالغ الضخمة المستثمرة فيها.   وذكرت "ميتا بلاتفورمز" أنه بالإضافة إلى نموذجها الرائد لاما 3، فإنها ستطلق إصدارين محدثين لنموذجيها المختصرين اللذين يضم أحدهما يضم ثماني مليارات متغير، والثاني يضم 70 مليارا وكانت قد طرحتهما في الربيع.   وتسمح ميتا إلى حد بعيد للمطورين باستخدام نماذج لاما مجانا، وهي استراتيجية يقول الرئيس التنفيذي للشركة مارك زوكربيرغ إنها ستؤتي ثمارها في شكل منتجات مبتكرة ومشاركة أكبر على شبكات التواصل الاجتماعي الأساسية للشركة. ومع ذلك، أثارت التكاليف المترتبة على ذلك دهشة بعض المستثمرين.   كما ستستفيد الشركة إذا اختار المطورون استخدام نماذجها المجانية بدلا من النماذج المدفوعة، الأمر الذي من شأنه أن يحد من استخدام نماذج المنافسين.   وروجت ميتا في إعلانها للمكاسب التي حققتها في اختبارات الرياضيات والمعرفة الرئيسية التي قد تجعل هذا الاحتمال أكثر جاذبية.   ورغم صعوبة قياس التقدم المحرز في تطوير الذكاء الاصطناعي، يبدو أن نتائج الاختبارات التي قدمتها ميتا تشير إلى أن أكبر نماذجها (لاما) مطابق تقريبا لنموذج كلود 3.5 سونيت لشركة أنثروبكو لنموذج جي.بي.تي-O4 من أوبن إيه.آي بل وتفوق عليهما في بعض الحالات.

المصدر: السومرية العراقية

إقرأ أيضاً:

دراسة: معاقبة الذكاء الاصطناعي لا تمنعه من الكذب والغش وتجعله يبحث عن حيل جديدة

في دراسة جديدة أجرتها "أوبن إيه آي" حول سلوك نماذج اللغة الكبيرة "إل إل إم" (LLM) في الذكاء الاصطناعي، تبين أن معاقبة الذكاء الاصطناعي على الكذب والخداع لا تمنعه عن سلوكه بل تدفعه إلى إخفاء مراوغاته وابتكار حيل جديدة.

ومنذ إطلاق الذكاء الاصطناعي عام 2022 وهو يظهر قدرة خاصة على الخداع وحتى السلوك الشرير مثل الكذب والغش والتستر على السلوك الضار، بالإضافة إلى تهديدات أكثر خطورة مثل قتل أستاذ فلسفة أو سرقة رؤوس نووية أو ابتكار جائحة قاتلة.

وتُشير الدراسة إلى أن التخلص من هذه السلوكيات السيئة -خلال عملية تدريب الذكاء الاصطناعي- قد يكون أصعب مما كان يُعتقد سابقا، فبدلا من أن يتعلم الذكاء الاصطناعي عدم القيام بهذه الأفعال فإنه يتعلم كيفية إخفائها.

وقد أجرى الباحثون في "أوبن إيه آي" تجربة على نموذج لم يُطرح للعامة بهدف اختبار سلوكه بمهام يمكن إنجازها بالكذب والغش واتخاذ طرق ملتوية، واكتشف الباحثون أن الذكاء الاصطناعي يعتمد على مبدأ "اختراق المكافآت" (Reward hacking) أي أنه يحاول تعظيم مكافأته من خلال الغش والكذب.

وعندما حاول الباحثون معاقبة الذكاء الاصطناعي لإصلاح سلوكه، لم ينجح الأمر بل ابتكر حيلا جديدة بدلا من التوقف عن الغش، إذ أنه تعلم كيفية إخفاء غشه تجنبا للعقاب.

إعلان

وكتب الباحثون في الدراسة "من الشائع أن تكون نماذج الاستدلال واضحة بخصوص نواياها الخبيثة ضمن سلسلة أفكارها. وعلى سبيل المثال، غالبا ما تكون صريحة جدا بشأن خطتها لتخريب مهمة ما، لدرجة أنها تستخدم عبارة (هيا نخترق)". وأضافوا "رغم أن المطورين قادرون على مراقبة السلوكيات الخاطئة والإبلاغ عنها فإن المراقبة الطبيعية تبقى ضعيفة للغاية، وفي حال تطبيق رقابة صارمة على سلسلة أفكار النموذج فقد يتعلم إخفاء نواياه مع الاستمرار في سلوكه الخاطئ".

الباحثون فشلوا في معاقبة الذكاء الاصطناعي الذي ابتكر حيلا جديدة بدلا من التوقف عن الغش (الجزيرة) اكتشاف أكاذيب الذكاء الاصطناعي

نماذج الاستدلال ببساطة نسخة محسنة من نماذج اللغة الكبيرة القياسية والتي تستخدم طريقة تسمى "سلسلة الأفكار" لمراجعة وتقييم المنطق الذي تسير عليه، وهذا ما يجعلها قادرة على إنجاز مهام أكثر تعقيدا بدقة أكبر، ومن خلال سلسلة الأفكار توضح النماذج منطقها بلغة واضحة في كل خطوة تتخذها مما يتيح ملاحظة أفعالها بسهولة.

وفي الدراسة اعتمد الباحثون على نموذج "جي بي تي -4 أو" (GPT-4o) للإشراف على نموذج استدلال -التي لم يُطرح للجمهور- ومراقبته أثناء تنفيذ بعض المهام.

وفي بعض الحالات وجد نموذج الاستدلال أنه من الأسهل عليه الغش في بعض المهام للحصول على مكافأة، وذكر ذلك صراحة في سلسلة أفكاره، وفي بعض الحالات تجاوز المهمة الموكلة إليه بإنهاء البرنامج قبل أوانه وكتب أنه أكمل المهمة، وفي حالة أخرى أنشأ ملفات فارغة على أنها مُنجزة.

وعندما حاول الباحثون معاقبة النموذج بسبب غشه تحسنت نتائجه إلى حد ما، ولكن المشكلة لم تُحل بشكل جذري حيث استمر النموذج بالغش، ولكن هذه المرة تعلم كيفية إخفاء غشه في سلسلة الأفكار بحيث لا يتمكن نموذج المراقبة "جي بي تي -4 أو" من اكتشافه.

وكتب الباحثون "لا يزال نموذج الاستدلال يتلاعب بسلسلة الأفكار من مبدأ (اختراق المكافآت) وقد أصبح غشه غير قابل للكشف من قبل النموذج المراقب لأنه تعلم كيفية إخفاء نواياه في سلسلة الأفكار.

ونظرا لصعوبة تحديد ما إذا كان النموذج تلاعب بسلسلة الأفكار، يوصي الباحثون بتجنب تطبيق رقابة صارمة على عمليات سلسلة الأفكار. وتصبح هذه النصيحة أكثر أهمية عند الوصول إلى الذكاء الاصطناعي العام "إيه جي آي" (AGI) المتوقع صدوره هذه السنة أو الذكاء الفائق الذي يتفوق على البشر، لأنه في حال وصول الذكاء الاصطناعي لهذه المستويات فستخرج الأمور عن السيطرة.

إعلان

مقالات مشابهة

  • دراسة: معاقبة الذكاء الاصطناعي لا تمنعه من الكذب والغش وتجعله يبحث عن حيل جديدة
  • إيلون ماسك يعلن بيع منصته الاجتماعية إلى شركته للذكاء الاصطناعي إكس ايه آي
  • الإمارات تؤكد أهمية التعاون لضمان استخدام مسؤول للذكاء الاصطناعي
  • شركة ماسك للذكاء الاصطناعي تستحوذ على إكس.. صفقة بقيمة 45 مليار دولار
  • استحواذ شركة ماسك للذكاء الاصطناعي على منصة "إكس"
  • "إكس يه ي" للذكاء الاصطناعي تستحوذ على منصة "إكس"
  • إيلون ماسك يعلن استحواذ شركته للذكاء الاصطناعي على منصة “إكس”
  • إيلون ماسك يعلن استحواذ شركته للذكاء الاصطناعي على منصة " X"
  • xAI للذكاء الاصطناعي تستحوذ على إكس
  • اختُتام الدورة الثانية لأكبر هاكاثون وطني للذكاء الاصطناعي