كشفت شركة "أوبن إيه آي"، الخميس، عن نموذج الذكاء الاصطناعي التوليدي الجديد "o1" القادر على التفكير والإجابة عن أسئلة أكثر تعقيدا، وبشكل أخص في مجال الرياضيات، وذلك مقارنة بنسخ نماذج سابقة.

وقالت الشركة في بيان إن "o1 يفكر قبل إعطاء الإجابة". ويشكل إطلاق هذا النموذج خطوة جديدة للشركة نحو تحقيق هدفها المتمثل في تطوير الذكاء الاصطناعي "العام"، أي الذكاء الاصطناعي المشابه لذكاء البشر، وفق فرانس برس.

ووفرت الشركة الإصدار التجريبي من" o1" اعتبارا من الخميس، والذي سيكون متاحا في مرحلة أولى لمن يستخدمون "تشات جي بي تي" لقاء رسم مدفوعة.

تجربة عملية

ذكر موقع "بيزنس إنسايدر"، الجمعة، أن النموذج الجديد يقوم بمهام معقدة مقارنة بالنماذج السابقة، ويمكنه حل مشاكل أكثر صعوبة في العلوم والرياضيات.

وأشار تقرير الموقع إلى أن نموذج "o1 "، "يمكنه مضاهاة طلاب الدكتوراه في مهام صعبة بالفيزياء والكيمياء والأحياء".

وفي مثال عملي، تغلب النموذج الجديد على نموذج " GPT-4o"، الذي كشفت عنه شركة "أوبن إيه آي" في مايو، وذلك في الاختبار التأهيلي لأولمبياد الرياضيات الدولي، وبفارق كبير.

"أوبن إيه آي" تكشف عدد مستخدمي "تشات جي بي تي" خلال عام قالت "شركة أوبن إيه آي" الناشئة للذكاء الاصطناعي، الخميس، إن روبوت الدردشة التابع لها "تشات جي بي تي" لديه الآن أكثر من 200 مليون مستخدم نشط أسبوعيا وهو ضعف العدد الذي كان لديه في موسم الخريف الماضي.

وتمكن نموذج " o1" من حل 83 بالمئة من الامتحان بشكل صحيح، مقارنة بالنموذج الآخر الذي حل فقط 13 بالمئة.

وأجرت وكالة فرانس برس، أيضًا، اختبارا للنموذج بطرح أسئلة منطقية بسيطة عليه، فحقق النتائج نفسها التي حققها " GPT-4o"، لكنه استغرق المزيد من الوقت وأعطى تفاصيل أكثر عن إجاباته، بدلا من أن يولّدها على الفور تقريبا.

وثمة فارق آخر يتمثل في عدم قدرة النموذج الجديد في الوقت الراهن على معالجة أو إنشاء محتوى آخر غير النصوص.

وأفادت "أوبن إيه آي" بأنها جربت نموذجها الجديد في مجال حل المسائل الرياضية أو إنتاج سطور من التعليمات البرمجية، مؤكدة أنه "ينافس أداء الخبراء البشريين في عدد كبير من الاختبارات المعيارية، التي تتطلب قدرة قوية على التفكير".

واضافت أن النموذج حلّ "من بين أفضل 500 تلميذ" في مسابقة رياضيات للمدارس الثانوية الأميركية.

"تشات جي بي تي" إلى "آيفون" قريبا.. محادثات بين "أبل" و"أوبن إيه آي" تقترب أبل من توقيع اتفاقية مع شركة "أوبن إيه آي" (OpenAI) لإضافة برنامج "تشات جي بي تي"على هواتف آيفون، كجزء من حملة أوسع لجلب ميزات الذكاء الاصطناعي إلى أجهزتها، وفقا لما قاله أشخاص مطلعون على الأمر لوكالة "بلومبيرغ".

وشرحت "أوبن إيه آي" أن النموذج "يستخدم سلسلة من الأفكار، كما يفعل الإنسان الذي يمكنه التفكير وقتا طويلا قبل الإجابة عن سؤال صعب".

وأوضحت أنه "يتعلم التعرف على أخطائه وتصحيحها. ويتعلم تقسيم الخطوات الصعبة إلى خطوات أبسط. ويتعلم تجربة نهج مختلف عندما لا ينجح النهج الأولي".

ويأتي إطلاق "o1" في وقت تسعى شركة "أوبن إيه آي" إلى جمع اكتتابات ترفع قيمتها إلى نحو 150 مليار دولار، مما يجعلها واحدة من أغلى الشركات غير المدرجة في البورصة بالعالم، وفق وسائل إعلام أميركية.

وتشمل قائمة المستثمرين المكتتبين مجموعة "مايكروسوفت" وشركة "نفيديا" العملاقة لتصنيع الرقائق.

كذلك تداولت وسائل إعلام أسماء جهات أخرى كمجموعة "آبل" التي تستخدم أصلا تكنولوجيا الشركة الناشئة في نظامها الجديد للذكاء الاصطناعي التوليدي، وشركة الأسهم الخاصة "ثرايف كابيتال"، وشركة "إم جي إكس" للاستثمار التكنولوجي التي أسسها مجلس الذكاء الاصطناعي والتكنولوجيا المتقدمة في دولة الإمارات، وفق فرانس برس.

والشهر الماضي، قالت "أوبن إيه آي" إن روبوت الدردشة التابع لها "تشات جي بي تي" لديه الآن أكثر من 200 مليون مستخدم نشط أسبوعيا، وهو ضعف العدد الذي كان لديه في الخريف الماضي.

وذكرت الشركة أن "92 بالمئة من أكبر 500 شركة في الولايات المتحدة تستخدم منتجاتها".

المصدر: الحرة

كلمات دلالية: الذکاء الاصطناعی تشات جی بی تی أوبن إیه آی

إقرأ أيضاً:

من يُلام في خطأ طبي يرتكبه الذكاء الاصطناعي؟

تُبشّر تقنيات الذكاء الاصطناعي المساعد بآفاقٍ واعدة لإحداث نقلة نوعية في الرعاية الصحية، من خلال مساعدة الأطباء في تشخيص المرضى وإدارتهم وعلاجهم. ومع ذلك، فإنّ التوجه الحالي لتطبيق الذكاء الاصطناعي المساعد قد يُفاقم التحديات المتعلقة بمنع الأخطاء وإرهاق الأطباء، بحسب موجز جديد أعده باحثون في جامعتي جون هوبكنز وتكساس.

ويُوضّح الموجز أنّ هناك توقعات متزايدة من الأطباء بالاعتماد على الذكاء الاصطناعي للحدّ من الأخطاء الطبية. 

ومع ذلك، لم تُوضَع بعد قوانين ولوائح مناسبة لدعم الأطباء في اتخاذ قراراتهم المُوجّهة بالذكاء الاصطناعي، على الرغم من التبني المُكثّف لهذه التقنيات في مؤسسات الرعاية الصحية.

المسؤولية الطبية

ووفق "مديكال إكسبريس"، يتوقع الباحثون أن المسؤولية الطبية ستعتمد على من يعتبره المجتمع مُخطئاً عند فشل التقنية أو ارتكابها خطأً، ما يُخضع الأطباء لتوقعاتٍ غير واقعية بمعرفة متى يجب تجاوز الذكاء الاصطناعي أو الثقة به. 

ويُحذّر الباحثون من أنّ مثل هذا التوقع قد يزيد من خطر الإرهاق، وحتى الأخطاء بين الأطباء.

تفسير التقنيات

وقالت شيفالي باتيل، الأستاذة المشاركة من جامعة تكساس: "كان الهدف من الذكاء الاصطناعي تخفيف العبء، ولكنه بدلاً من ذلك يُلقي بالمسؤولية على عاتق الأطباء، مُجبراً إياهم على تفسير تقنيات لا يستطيع حتى مُبتكروها شرحها بالكامل". 

وأضافت: "هذا التوقع غير الواقعي يُولّد تردداً ويُشكّل تهديداً مباشراً لرعاية المرضى".

ويقترح الموجز الجديد استراتيجياتٍ لمؤسسات الرعاية الصحية لدعم الأطباء من خلال تحويل التركيز من الأداء الفردي إلى الدعم والتعلم التنظيمي، ما قد يُخفف الضغط على الأطباء ويُعزز نهجاً أكثر تعاوناً لدمج الذكاء الاصطناعي.

وقال كريستوفر مايرز، الباحث المشارك: "إن توقع أن يفهم الأطباء الذكاء الاصطناعي ويطبقونه بشكل مثالي عند اتخاذ القرارات السريرية يُشبه توقع أن يُصمّم الطيارون طائراتهم الخاصة أيضاً أثناء تحليقهم بها". 

وأضاف: "لضمان تمكين الذكاء الاصطناعي للأطباء بدلاً من إرهاقهم، يتعين على منظمات الرعاية الصحية تطوير أنظمة دعم تساعد الأطباء على تحديد متى وكيف يستخدمون الذكاء الاصطناعي حتى لا يضطروا إلى التشكيك في الأدوات التي يستخدمونها لاتخاذ القرارات الرئيسية".

مقالات مشابهة

  • ديب سيك تضرب بقوة تحديث جديد يهدد عرش أوبن إيه آي
  • رئيس جامعة أسيوط يفتتح نموذج محاكاة مؤتمر الدول الأطراف في اتفاقية الأمم المتحدة لمكافحة الفساد
  • أوبن أيه آي: تحديثات جديدة في تشات جي بي تي لحوار أكثر سلاسة
  • ديب سيك تعزز منافستها مع OpenAI بتحديث نموذجها للذكاء الاصطناعي
  • أدنوك تطور مهارات 40 ألف من كوادرها في أساسيات الذكاء الاصطناعي بنهاية 2025
  • من يُلام في خطأ طبي يرتكبه الذكاء الاصطناعي؟
  • ماذا نعرف عن نموذج جنين وخطة الإمارات السبع في الضفة الغربية؟
  • مؤسس نيتفليكس يتبرع بـ50 مليون دولار لدراسة تأثير الذكاء الاصطناعي على البشرية
  • جامعة ناغازاكي تطور “مرضى افتراضيين” لتدريب طلاب كلية الطب
  • Gmail يطور ميزة البحث .. الذكاء الاصطناعي يحدد ما تحتاجه أولا