رئيس مايكروسوفت للذكاء الاصطناعي يدقق في كود OpenAI
تاريخ النشر: 16th, June 2024 GMT
تم تأسيس OpenAI، إلى حد كبير، كإجراء مضاد لسلامة الذكاء الاصطناعي لشركة DeepMind، شركة الذكاء الاصطناعي التي استحوذت عليها جوجل في عام 2014.
لكن في الآونة الأخيرة، كان أحد مؤسسي ديب مايند، مصطفى سليمان، يفعل ما لا يمكن تصوره: النظر تحت غطاء محرك السيارة إلى جواهر تاج OpenAI - خوارزمياتها السرية وراء نماذج الأساس مثل GPT-4، كما قال أشخاص مطلعون على الأمر.
وذلك لأن سليمان هو الآن رئيس جهود الذكاء الاصطناعي في شركة مايكروسوفت، التي تتمتع بحقوق الملكية الفكرية لبرنامج OpenAI كجزء من استثماراتها بمليارات الدولارات في الشركة.
ومع ذلك، فقد لفت وجوده انتباهًا جديدًا إلى ديناميكية غير عادية: حيث ترتبط مايكروسوفت وOpenAI ارتباطًا وثيقًا؛ هم أيضا منافسين. وقال بعض الأشخاص إن بعض الأشخاص في شركة سام ألتمان شعروا بالاستياء من حرج هذا الترتيب منذ انضمام سليمان إليه.
العلاقة بين المهندسين في Microsoft وOpenAI هي جزئيًا حسب التصميم. وكان لعملاق البرمجيات دور فعال في بناء القوة الحاسوبية اللازمة لتدريب أكبر نماذج الذكاء الاصطناعي في العالم والتي أصبحت فيما بعد ChatGPT. يتطلب ذلك أن يكون لدى بعض المهندسين في مايكروسوفت معرفة وثيقة بالطريقة التي تعمل بها خوارزميات OpenAI.
ومن الناحية الفنية، تتمتع مايكروسوفت بإمكانية الوصول إلى منتجات OpenAI التي تم إطلاقها، وفقًا لأشخاص مطلعين على الصفقة، ولكن ليس مشاريعها البحثية السرية للغاية. لكن من الناحية العملية، غالبا ما ترى مايكروسوفت منتجات OpenAI قبل وقت طويل من إتاحتها للجمهور، لأن الشركتين تعملان معًا بشكل وثيق لطرح المنتجات في السوق على نطاق واسع.
واليوم، تحتاج الشركتان إلى بعضهما البعض. ولكن إذا قرروا في المستقبل المضي قدمًا بمفردهم، فإن وجود سليمان في مايكروسوفت يمنحها التفوق عندما يتعلق الأمر بتطوير نماذج الذكاء الاصطناعي. وباعتباره شخصية رئيسية في صعود التكنولوجيا، يمكنه المساعدة في توظيف مواهب الذكاء الاصطناعي للتنافس مع OpenAI.
ذكرت صحيفة وول ستريت جورنال أن مايكروسوفت تتحرك بالفعل لتهميش OpenAI، وبناء "منافس داخلي لـ OpenAI داخل مايكروسوفت". لم تتمكن Semafor من تأكيد أن أي نماذج أساسية قريبة من نطاق GPT-4 الخاص بـ OpenAI يتم تطويرها اليوم في Microsoft.
ورفضت مايكروسوفت وOpenAI وسليمان التعليق.
تم تصميم OpenAI في عام 2015 من قبل إيلون ماسك وألتمان، اللذين كانا قلقين بشأن مخاطر الذكاء الاصطناعي على البشرية وتطوير Google للتكنولوجيا من خلال DeepMind. لقد شكلوا منظمة غير ربحية، مدعومة بمليارات " ماسك "، يمكنها تحمل تكاليف اصطياد بعض أفضل الباحثين في مجال الذكاء الاصطناعي في العالم.
لكن الشركة استغرقت سنوات لتترك بصمتها، وفقد " ماسك " ثقته في قدرته على منافسة "ديب مايند". وبعد محاولته الاستيلاء على زمام الأمور بنفسه، انفصل " ماسك " في النهاية، وأخذ أمواله معه.
شكلت OpenAI لاحقًا كيانًا ربحيًا، باستخدام رأس المال الخاص لتمويل جهد هائل لإنشاء نماذج لغوية كبيرة ذات حجم غير مسبوق، مما أدى في النهاية إلى ChatGPT.
ترك سليمان شركة DeepMind في عام 2019 وبقي في Google حتى انضم إلى شركة المشاريع Greylock في عام 2022. وبدعم من Greylock والمؤسس المشارك لـ LinkedIn، Reid Hoffman، أنشأ Inflection AI، وهي خطوة طموحة لإنشاء روبوتات دردشة متطورة تعمل بالذكاء الاصطناعي. كرفاق الإنسان.
فشل الانقلاب وانضم سليمان إلى مايكروسوفت في وقت سابق من هذا العام لقيادة قسم جديد في الشركة يسمى Microsoft AI. وهو يشرف الآن على العديد من منتجات الذكاء الاصطناعي الموجهة للمستهلك والتي طرحتها الشركة على مدار العامين الماضيين.
تحت العلامة التجارية "Copilot"، تعمل Microsoft على دمج الذكاء الاصطناعي في جميع منتجاتها تقريبًا من خلال برامج Windows وOffice. في النهاية، مع تحسن نماذج الذكاء الاصطناعي، يمكن لمساعدي الطيارين العمل كمساعدين افتراضيين، حيث يكملون المهام بشكل مستقل ويغيرون طريقة تفاعل البشر مع أجهزة الكمبيوتر.
ومن المتوقع أن يقدم سليمان النهج التعاطفي الذي طوره في Inflection من خلال برنامج الدردشة الآلي الخاص به والمسمى Pi. في الأساس، هو مكلف بتشكيل شخصية أجهزة الكمبيوتر التي تأمل مايكروسوفت أن تكون واجهة المستقبل.
بناءً على المحادثات التي أجريتها مع أشخاص في OpenAI، لا أعتقد أن الشركة متوترة للغاية بشأن قيام Microsoft أو سليمان بإلقاء نظرة فاحصة على التكنولوجيا الخاصة بها. إن التقدم في مجال الذكاء الاصطناعي يتحرك بسرعة كبيرة بحيث أن كل ما تراه مايكروسوفت اليوم سوف يصبح عتيقاً بسرعة.
إذا بدأت العلاقة تهدأ، فقد تتراجع شركة OpenAI عن الأبحاث المتطورة. مايكروسوفت لديها حق
بالنسبة لمنتجات OpenAI، ولكن فقط عندما يتم إطلاقها رسميًا كمنتجات، ولا يمكن النظر إلى الأبحاث التجريبية بعيدًا عن مرحلة التسويق، وفقًا لأشخاص في كلا الشركتين. مع اقتراب موعد سباق فرنسا للدراجات، إليك تشبيه بالدراجة. OpenAI وMicrosoft في حالة انفصال بين شخصين متقدمين بفارق كبير عن peloton. ومن خلال العمل معًا، قد يتمكنون من الحفاظ على الصدارة. إذا ذهب أي منهما بمفرده، فقد يتخلف كلاهما عن الركب. يتعين على كلا الشركتين أن تفكرا في استراتيجية خط النهاية الخاصة بهما، عندما يتعين عليهما التخلص من الأخرى. جزء من هذه الخطوة بالنسبة لناديلا هو التأكد من أن الشركة، على سبيل المثال، بعد خمس سنوات من الآن، قادرة على تطوير نماذج ذكاء اصطناعي متقدمة بما فيه الكفاية بحيث لا تحتاج إلى ملكية فكرية خاصة بأي شخص آخر. وبالنسبة لألتمان، قد يعني ذلك القدرة على تدريب الخوارزمية الخاصة بها دون مساعدة شركة مثل مايكروسوفت. واليوم، على الأقل في المستويات العليا لكل شركة، أصبحت العلاقة بين الشركتين صحية. لا أعتقد أن Microsoft تقوم بتدريب نموذج أساسي ضخم على نطاق ما تبنيه لـ OpenAI. لن يكون من المنطقي أن تهدر الشركة عشرات المليارات على هذا الجهد بينما يمكنها استخدام نماذج OpenAI على أي حال. لذلك لا أستطيع أن أقول إن مايكروسوفت لديها منافس لـ OpenAI داخل أسوارها. يبدو الأمر كما لو أن الشركة تريد الحفاظ على تلك العضلات منتعشة، فقط في حالة احتياجها إليها يومًا ما.
لقد كان ناديلا منفتحًا بشأن منافسة الشركة مع OpenAI. وقال لبن طومسون: "إنهم يبنون التطبيقات، ونحن نبني التطبيقات، والأطراف الثالثة تبني التطبيقات، وهكذا تسير الأمور". "ستكون هناك منافسة، وستكون هناك بعض المنافسة المتكاملة رأسياً بالكامل." وفي الوقت نفسه، كان ناديلا واضحاً في أن الشركتين تربطهما علاقة تكافلية وثيقة. وقال في وقت سابق من هذا العام إن "OpenAI لم يكن ليوجد لولا دعمنا المبكر. اليوم، هم شركة رائعة، ويسعدنا أن نكون جزءًا من رحلتهم.
المصدر: بوابة الوفد
كلمات دلالية: الذکاء الاصطناعی فی من خلال فی عام
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي قادر على الخداع
تابع أحدث الأخبار عبر تطبيق
أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية أنثروبيك أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين وإبداء وجهات نظر مختلفة خلال تدريبها وفقا لما نشرته مجلة تك كرانش المتخصصة فى هذا المجال .
كشف فريق البحث إنه لا يوجد سبب للشعور بالفزع حاليا في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
ولهذا يجب النظر إلى تلك النتائج كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة بعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة.
تمت الدراسة بالتعاون مع مؤسسة ريد وود ريسيرش لأبحاث الذكاء الاصطناعي وتناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة لا يريد هوالقيام بها.
كما أن لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ ، فهي ببساطة آلات إحصائية وبعد تدريبها على العديد من الأمثلة تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة إلى من في رسالة بريد إلكتروني قبل عبارة قد يهمك الأمر.
وفى أثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة بما في ذلك النموذج "كلاود3 أوبس" التابع لشركة "أنثروبيك" والتي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة وهو تضارب واضح في المبادئ كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي ورقة ملاحظات .
ويمكنه استخدامها لتدوين أفكاره خطوة بخطوة وبحسب الباحثين فحاول "كلاود3 أوبوس" التلاعب بالردود لتقديم انحياز زائف في 12% من المرات.