سرايا - في خطوة غير متوقعة، وإن كان قد مهد لها سابقاً بتوجيه انتقادات خجولة للشركة، رفع الملياردير الأميركي إيلون ماسك دعوى قضائية ضد OpenAI ورئيسها التنفيذي سام ألتمان، في محكمة بسان فرانسيسكو.
أما السبب الذي ارتكزت إليه تلك الدعوى، فيعود إلى خرق اتفاقية تعاقدية أبرمت عام 2015، حين ساعد ماسك مع آخرين في تأسيس ChatGPT-maker .



إذ أظهرت أوراق الدعوى أن ألتمان، بالإضافة إلى شريكه المؤسس لشركة OpenAI المدعومة من مايكروسوفت، جريج بروكمان، تواصلا مع ماسك في الأصل لإنشاء شركة غير ربحية تعمل على تطوير الذكاء الاصطناعي "لصالح الإنسانية" إلا أن عمل الشركة وأهدافها تغير لاحقا، إذ أكد محامون أن الأرباح التي تحققها الشركة المذكورة تنتهك هذا الاتفاق، وفق ما نقلت رويترز.
وأصبح برنامج الدردشة الآلي ChatGPT، من OpenAI أسرع تطبيق برمجي نموًا في العالم خلال ستة أشهر من صدوره بنوفمبر 2022.
أشعل المنافسين
كما أشعلت انطلاقته النارية حماسة منافسين كثر من Microsoft وAlphabet فضلا عن مجموعة واسعة من الشركات الناشئة
إلى ذلك، تم اعتماد ChatGPT منذ ظهوره لأول مرة، من قبل عدة شركات لـتنفيذ مجموعة واسعة من المهام، بدءاً من تلخيص المستندات إلى الكتابة والتأليف، فضلا عن تفكيك رموز الكمبيوتر وغيرها الكثير.
ما أدى إلى انطلاق سباق مستعر بين شركات التكنولوجيا الكبرى في مجال الذكاء الاصطناعي التوليدي.
يذكر أن ماسك الذي امتلك منصة إكس مقابل 44 مليار دولار في أكتوبر 2022، ومؤسس شركة تسلا للسيارات الكهربائية، فضلا عن ستارلينك ونيورولينك، وسبايس إكس شارك في تأسيس OpenAI في 2015، لكنه استقال من منصبه بمجلس الإدارة عام 2018.
وفي نوفمبر الماضي (2023) كشف عن نموذج ذكاء اصطناعي توليدي لشركته الناشئة الجديدة "إكس إيه آي xAI" ، وهو يحمل اسم "غروك (Grok).
أتت تلك الخطوة حينها بعدما أطلق "إكس إيه آي" رسمياً في يوليو الماضي، عقب ضمّ خبراء معلوماتية كانوا يعملون في "أوبن إيه آي" و"غوغل" و"مايكروسوفت" و"تسلا" إلى صفوفها!


المصدر: وكالة أنباء سرايا الإخبارية

إقرأ أيضاً:

«تشات جي بي تي» يتحيّز في اتخاذ القرار.. هل أصبح كالبشر؟

مع ازدياد اعتماد المؤسسات على النماذج اللغوية الكبيرة مثل “تشات جي بي تي” من “أوبن إيه آي” (OpenAI) التي أصبحت محوراً رئيسياً في عدد من القطاعات، لقدرتها على توليد نصوص تشبه النصوص البشرية ودعم عمليات اتخاذ القرار، يَبرز تساؤل هام: هل تُعدّ القرارات الخالية من التحيّز أمراً أساسياً لتحقيق الكفاءة والفاعلية؟

ونشرت مجلة” “إدارة عمليات التصنيع والخدمات”، مؤخراً دراسة بعنوان: “مدير تنفيذي وذكاء اصطناعي.. هل يتخذ (ChatGPT) قرارات متحيّزة مثلنا؟”، تستكشف ما إذا كان “تشات جي بي تي” يُظهر أنماطاً من التحيّزات المعرفية البشرية عند وضعه في مواقف تتطلب اتخاذ قرارات تتعلق بإدارة العمليات.

ووفق المجلة، “تركّز الدراسة على 18 نوعاً شائعاً من التحيّزات البشرية، مثل الإفراط في الثقة، وتجنب الغموض، ومغالطة الاقتران بهدف تقييم مدى تعرض النموذج لهذه الأخطاء المعرفية”.

وتابعت، “أجرى الباحثون تجارب على نسختين من «ChatGPT» وهما«GPT-3.5»، و«GPT-4»، وقدموا لهما سيناريوهات مستمَدة من الأدبيات العلمية (سياقات تقليدية)، وأخرى مُعادة صياغتها ضمن سياقات متعلقة بإدارة المخزون والعمليات، وقد هدفت هذه المقاربة إلى اختبار مدى اتساق ردود النموذج عبر سيناريوهات مختلفة، وتحليل مدى تطابقها مع التحيّزات البشرية”.

وبحسب المجلة، “كشفت الدراسة عن عدد من النتائج الجوهرية التي تُلقي الضوء على سلوك النموذج في اتخاذ القرار”:

انعكاس جزئي لانحيازات البشر

في ما يقارب نصف التجارب، أظهر «تشات جي بي تي» أنماطاً من القرارات تشبه التحيّزات البشرية. فعلى سبيل المثال، في السيناريوهات التي تنطوي على درجة من عدم اليقين، أبدى النموذج ميلاً إلى تجنّب المخاطر وتفضيل الخيارات الآمنة، بما يتماشى مع ما يُعرف في علم النفس بسلوك البشر عند التعامل مع المخاطر. لكن على الجانب الآخر، وفي مسائل تتطلب تفكيراً منطقياً بحتاً مثل اختبارات الاحتمالات، اتخذ «ChatGPT» قرارات أكثر عقلانية وخالية من التحيّز.

اتساق ملحوظ عبر السياقات

أظهر النموذج اتساقاً كبيراً في طريقة اتخاذه القرارات بين السيناريوهات التقليدية وسيناريوهات إدارة العمليات، ما يشير إلى وجود منهجية منظمة وثابتة خلف قراراته، حتى عندما تتغير تفاصيل المهمة أو السياق الذي تعمل فيه.

تطوّر في الأداء بين النسخ

عند مقارنة النسختين «GPT-3.5» و«GPT-4»، لاحظ الباحثون أن النموذج الأحدث كان أكثر دقة في المسائل الرياضية المحددة، لكنه أظهر أيضاً مستويات أعلى من الانحياز في المسائل المتعلقة بالتفضيلات، مما يدل على أن التطور في قدرات النموذج قد يحسّن الأداء في بعض المهام، بينما يزيد احتمالية التحيّز في أخرى.

تحليل النتائج

ومع ازدياد استخدام النماذج اللغوية الكبيرة في بيئات العمل، هناك ثلاث نقاط يجب على مديري العمليات أخذها في الحسبان، يمكن الاستفادة من «ChatGPT» في المجالات التي تتطلب قرارات تستند إلى قواعد واضحة أو حسابات محددة، حيث أظهر النموذج أداء عقلانياً ودقيقاً، وعند التعامل مع مواقف تتطلب أحكاماً ذاتية أو تقييمات تستند إلى التفضيلات، يجب أن يكون هناك وعي بأن النموذج قد يعكس انحيازات البشر، لذا يُنصح بوجود آليات رقابية أو مراجعات بشرية لتفادي اتخاذ قرارات غير موضوعية.

كما تكشف نتائج الدراسة أيضاً عن “أبعاد أخلاقية مهمة مرتبطة بتوظيف الذكاء الاصطناعي في عمليات اتخاذ القرار، فإذا كانت هذه النماذج تكتسب تحيّزات البشر أو تعكسها، فقد يؤدي ذلك إلى استمرار، أو حتى تضخيم الأخطاء والتمييزات الموجودة مسبقاً. ومن هنا تبرز أهمية مراقبة أداء هذه النماذج باستمرار، وتطبيق إرشادات أخلاقية واضحة لضمان استخدامها بعدالة وشفافية”.

مقالات مشابهة

  • OpenAI ترفع دعوى قضائية ضد إيلون ماسك
  • OpenAI توفر وصولا مجانيا إلى Chatgpt Plus حتى مايو 2025
  • إدارة ترامب تجمد أموالا طائلة لجامعتين مرموقتين
  • «تشات جي بي تي» يتحيّز في اتخاذ القرار.. هل أصبح كالبشر؟
  • 1.4 مليون فرصة عمل.. «مشروعك» يحقق إنجازات غير مسبوقة خلال 10 سنوات
  • «أغبى من كيس الطوب».. ماسك يهاجم كبير مستشاري ترامب التجاريين ويصفه بالأحمق
  • منظمة العفو: عدد قياسي من عمليات الإعدام في العالم منذ 2015
  • بتهمة "إهانة الرئيس".. إردوغان يقاضي زعيم المعارضة التركية
  • طموح ماسك السياسي يواجه تهديدات جدية
  • ماسك يناشد ترامب بإلغاء الرسوم الجمركية الشاملة