ميرا موراتي أحدث قائدة تغادر OpenAI
تاريخ النشر: 27th, September 2024 GMT
غادرت ميرا موراتي شركة OpenAI، حيث كانت تشغل منصب كبير مسؤولي التكنولوجيا منذ عام 2018. وفي مذكرة شاركتها مع الشركة ثم نشرتها علنًا على X، قالت موراتي إنها تخرج "لأنني أريد أن أخلق الوقت والمساحة للقيام باستكشافاتي الخاصة".
اكتسبت موراتي رؤية إضافية كوجه لشركة الذكاء الاصطناعي عندما تولت لفترة وجيزة مهام الرئيس التنفيذي في نوفمبر 2023 عندما طرد مجلس الإدارة سام ألتمان.
هذا هو النص الكامل لبيان موراتي:
مرحباً بالجميع،
لدي شيء لأشاركه معكم. بعد الكثير من التفكير، اتخذت القرار الصعب بترك OpenAl.
لقد كانت السنوات الست والنصف التي قضيتها مع فريق OpenAl بمثابة امتياز غير عادي. وبينما سأعرب عن امتناني للعديد من الأفراد في الأيام القادمة، أود أن أبدأ بشكر سام وجريج على ثقتهما بي لقيادة المنظمة الفنية وعلى دعمهما طوال السنوات.
لا يوجد وقت مثالي أبدًا للابتعاد عن مكان عزيز، ومع ذلك فإن هذه اللحظة تبدو مناسبة. تمثل إصداراتنا الأخيرة من الكلام إلى الكلام وOpenAl o1 بداية عصر جديد في التفاعل والذكاء - الإنجازات التي أصبحت ممكنة بفضل براعتك وحرفيتك. لم نقم ببناء نماذج أكثر ذكاءً فحسب، بل قمنا بتغيير جذري لكيفية تعلم أنظمة الذكاء الاصطناعي والتفكير في المشكلات المعقدة.
لقد جلبنا أبحاث السلامة من المجال النظري إلى التطبيقات العملية، وخلقنا نماذج أكثر قوة ومواءمة وقابلية للتوجيه من أي وقت مضى. لقد جعل عملنا أبحاث الذكاء الاصطناعي المتطورة بديهية وسهلة الوصول إليها، وتطوير تكنولوجيا تتكيف وتتطور بناءً على مدخلات الجميع. هذا النجاح هو شهادة على عملنا الجماعي المتميز، وبفضل تألقك وتفانيك والتزامك تقف OpenAl على قمة ابتكار الذكاء الاصطناعي.
أنا أبتعد لأنني أريد خلق الوقت والمساحة للقيام باستكشافاتي الخاصة. في الوقت الحالي، ينصب تركيزي الأساسي على بذل كل ما في وسعي لضمان انتقال سلس، والحفاظ على الزخم الذي بنيناه.
سأظل ممتنًا إلى الأبد للفرصة التي أتيحت لي لبناء والعمل جنبًا إلى جنب مع هذا الفريق الرائع. معًا، دفعنا حدود الفهم العلمي في سعينا لتحسين رفاهة الإنسان. وبينما قد لا أكون في الخنادق معكم بعد الآن، سأظل أشجعكم جميعًا.
مع امتناني العميق للصداقات التي تم تشكيلها، والانتصارات التي تحققت، والأهم من ذلك، التحديات التي تغلبنا عليها معًا.
في منشور على X، كشف ألتمان أن كبير مسؤولي الأبحاث في الشركة، بوب ماكجرو، ونائب رئيس الأبحاث، باريت زوف، سيغادران الشركة أيضًا. وقال إنهم اتخذوا القرارات "بشكل مستقل عن بعضهم البعض ووديًا"، ولكن من المنطقي "القيام بكل هذا دفعة واحدة" من أجل تسليم سلس. ستمر قيادة OpenAI ببعض التغييرات نتيجة لذلك، مع تعيين مارك تشين، رئيس Frontiers Research، كنائب أول لرئيس قسم الأبحاث. تم تعيين الباحث العلمي جوش أتشيام كرئيس لتنسيق المهمة، بينما أصبح مارك نايت، رئيس الأمن، الآن كبير مسؤولي أمن المعلومات.
المصدر: بوابة الوفد
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
الذكاء الاصطناعي مجرد وهم.. باحثون يكشفون السبب
تابع أحدث الأخبار عبر تطبيق
في تطور جديد يعيد تقييم فعالية الذكاء الاصطناعي، أعلن باحثون بإحدى شركات التكنولوجيا العملاقة أن الذكاء الاصطناعي، وخصوصًا النماذج اللغوية الكبيرة، يُظهر سلوكًا يُوحي بالذكاء ولكنه في الواقع مجرد وهم، هذه النماذج تُظهر قدرة على الاستجابة والتفاعل مع المستخدمين، إلا أنها تفتقر إلى التفكير المنطقي الحقيقي وفهم السياق العميق.
ووفقا لموقع techxplore أن الباحثون يقولون رغم التقدم الكبير الذي حققته تطبيقات الذكاء الاصطناعي، توضح دراسة باحثي شركة التكنولوجيا أن هذه التقنيات ما زالت بعيدة عن تحقيق ذكاء حقيقي، والنماذج الحالية تعتمد على تقنيات تحليل الأنماط بدلاً من الفهم العميق أو التفكير المنطقي، مما يجعلها أداة مفيدة ولكنها ليست بديلاً عن العقل البشري، ونُشر البحث عبر منصة arXiv preprint.
نقاط البحث الأساسية:
• أجريت الدراسة على نماذج لغوية كبيرة، مثل تلك المستخدمة في تطبيقات الذكاء الاصطناعي الشائعة.
• أظهرت النتائج أن هذه النماذج لا تفهم الأسئلة المطروحة فهمًا حقيقيًا، بل تعتمد على بنية الجمل والخوارزميات المكتسبة.
الفرضية الأساسية للدراسة:
افترض الباحثون أن الذكاء الحقيقي، سواء للكائنات الحية أو الآلات، يتطلب القدرة على:
1. التمييز بين المعلومات ذات الصلة وغير ذات الصلة: مثال ذلك، إذا سأل طفل والده عن عدد التفاح في حقيبة تحتوي على تفاح صغير الحجم، يمكن للعقل البشري تجاهل حجم التفاح كعامل غير ذي صلة بالإجابة.
2. إظهار التفكير المنطقي: القدرة على استخلاص الاستنتاجات الصحيحة بناءً على المعطيات المتاحة.
اختبار النماذج اللغوية الكبيرة:
• استخدم الباحثون مئات الأسئلة التي استُخدمت سابقًا لتقييم قدرة النماذج اللغوية.
• أضيفت معلومات غير ذات صلة إلى هذه الأسئلة لقياس قدرة الذكاء الاصطناعي على تجاهلها.
• النتيجة: أدى وجود معلومات زائدة إلى إرباك الذكاء الاصطناعي، مما نتج عنه إجابات خاطئة أو غير منطقية.
نتائج البحث:
1. عدم الفهم الحقيقي للسياق
النماذج اللغوية الكبيرة لا تفهم الأسئلة فهمًا عميقًا. بدلاً من ذلك، تستند إلى التعرف على الأنماط وتوليد إجابات تعتمد على البيانات السابقة.
2. إجابات مضللة
أعطت النماذج إجابات بدت صحيحة ظاهريًا، لكنها عند الفحص الدقيق تبين أنها خاطئة أو غير متسقة مع المنطق.
3. الوهم الذكي
النماذج تظهر وكأنها “تفكر” أو “تشعر”، لكنها في الواقع تعتمد على خوارزميات تعليم الآلة للتفاعل مع المستخدم، دون وجود ذكاء حقيقي أو إدراك.
أمثلة توضيحية من البحث:
• سؤال بسيط: عند طرح سؤال على الذكاء الاصطناعي يتضمن معلومات غير ضرورية، غالبًا ما يدمجها في إجابته بدلاً من تجاهلها.
• الشعور والإحساس: عند سؤال الذكاء الاصطناعي عن “شعوره” تجاه أمر معين، قد يقدم إجابات تُوحي بأنه يشعر، لكن هذه مجرد خدعة لغوية تعتمد على بيانات التدريب.
دلالات البحث:
• النتائج تعزز وجهة النظر التي ترى أن الذكاء الاصطناعي ليس “ذكاءً” حقيقيًا بالمعنى البشري، بل هو نموذج إحصائي معقد.
• تؤكد الدراسة أن الذكاء الاصطناعي الحالي غير قادر على التفكير المنطقي أو فهم السياق كما يفعل الإنسان.
التحديات المستقبلية:
• تحسين قدرة النماذج اللغوية على الفصل بين المعلومات ذات الصلة وغير ذات الصلة.
• تطوير نماذج ذكاء اصطناعي تفهم السياق بشكل أفضل وتُظهر منطقًا أقرب للإنسان.
• تقليل الاعتماد على الأنماط الإحصائية وزيادة التركيز على التفاعل الديناميكي.