«أوبن إيه آي» تفكك فريقا مخصصا للتخفيف من مخاطر الذكاء الاصطناعي
تاريخ النشر: 18th, May 2024 GMT
كشفت شركة (OpenAI) مطورة برنامج «شات جي بي تي»، أمس الجمعة، عن حل فريقها المخصص للتخفيف من المخاطر طويلة المدى للذكاء الاصطناعي الفائق الذكاء، وذلك بعد عام واحد فقط من إعلان الشركة عن تشكيل هذا الفريق.
وبدأت «أوبن إيه آي» منذ أسابيع في حل ما يُسمى بمجموعة «superalignment» (مجموعة المحاذاة الفائقة)، ودمج الأعضاء في مشاريع وأبحاث أخرى، مما يثير الكثير من الأسئلة حول الأمر، كما أنه يثير المخاوف من أن تكون شركات التكنولوجيا الكبرى قد قررت تجاهل المخاطر التي تواجهها البشرية بسبب هذه التقنيات المجنونة.
ومن المعلوم أن شركة «أوبن إيه آي» شريك مع شركة «مايكروسوفت» العملاقة، وكلاهما يتجهان إلى تطوير أدوات عاملة بالذكاء الاصطناعي، وذلك على الرغم من تحذيرات كبيرة من مخاطر هذه التكنولوجيا وما إذا كان من المحتمل أن تتمرد على البشر يوماً ما.
أوبن إيه آيوروت شبكة «CNBC» الأميركية في تقرير لها عن مصدر مطلع في شركة «أوبن إيه آي» تأكيده حل الفريق الخاص بدراسة مخاطر الذكاء الاصطناعي، حيث قال المصدر إنه سيتم إعادة تعيين بعض أعضاء الفريق في عدة فرق أخرى داخل الشركة.
وتأتي هذه الأخبار بعد أيام من إعلان قائدي الفريق إيليا سوتسكيفر وجان ليك، عن مغادرتهما الشركة الناشئة المدعومة من «مايكروسوفت»، حيث كتب ليك يوم الجمعة أن «ثقافة وعمليات السلامة في أوبن إيه آي قد تراجعت عن المنتجات اللامعة».
هدف الفريق المختص قبل حلهوقد ركز الفريق الخاص بدراسة المخاطر، والذي تم الإعلان عن تشكيله العام الماضي، على «الاكتشافات العلمية والتقنية لتوجيه أنظمة الذكاء الاصطناعي والتحكم فيها بشكل أكثر ذكاءً من البشر». وفي ذلك الوقت، قالت الشركة إنها ستخصص 20% من قدرتها الحاسوبية للمبادرة على مدى أربع سنوات.
ولم تقدم (OpenAI) أي تعليق على المعلومات بشأن حل الفريق المتخصص بالمخاطر، واكتفت الشركة بالاشارة إلى تدوينة نشرها رئيسها التنفيذي سام ألتمان وقال فيها إنه «حزين لرؤية زميله ليك يغادر، فيما الشركة لديها المزيد من العمل للقيام به».
وأعلن كل من سوتسكيفر وليك يوم الثلاثاء الماضي عن مغادرتهما للشركة من خلال تدوينات لهما على منصة التواصل الاجتماعي «إكس»، وذلك بفارق ساعات، ولكن يوم الجمعة شارك ليك المزيد من التفاصيل حول سبب تركه للشركة الناشئة.
وقال ليك: «انضممتُ لأنني اعتقدت أن أوبن إيه آي سيكون أفضل مكان في العالم لإجراء هذا البحث، ومع ذلك كنتُ أختلف مع إدارة الشركة حول الأولويات الأساسية، حتى وصلنا أخيراً إلى نقطة الانهيار».
وأضاف أنه يعتقد أن الكثير من النطاق الترددي للشركة يجب أن يركز على الأمن والمراقبة والتأهب والسلامة والتأثير المجتمعي.
وكتب: «من الصعب جداً حل هذه المشكلات بشكل صحيح، وأنا قلق من أننا لسنا على المسار الصحيح للوصول إلى هناك».
وتابع: «على مدى الأشهر القليلة الماضية، كان فريقي يبحر ضد الريح. وفي بعض الأحيان كنا نكافح من أجل موارد الحوسبة وكان إنجاز هذا البحث المهم يزداد صعوبة».
وذكر: «إن بناء آلات أكثر ذكاءً من الإنسان هو مسعى خطير بطبيعته.. تتحمل شركة Open AI مسؤولية هائلة نيابة عن البشرية جمعاء. ولكن على مدى السنوات الماضية، تراجعت ثقافة السلامة وعملياتها في المنتجات اللامعة».
أوبن إيه آيمن جهتها أكدت صحيفة «وول ستريت جورنال» الأميركية ووسائل إعلام أخرى أن سوتسكيفر ركز خلال عمله في «أوبن إيه آي» على ضمان أن الذكاء الاصطناعي لن يؤذي البشر، في حين كان آخرون، أكثر حرصاً على المضي قدماً في تقديم التكنولوجيا الجديدة.
أزمة في الإدارة العليا بالشركةوتأتي هذه التطورات بعد شهور من أزمة في الإدارة العليا بالشركة، حيث تمت إقالة الرئيس التنفيذي سام ألتمان من منصبه في نوفمبر من العام الماضي، وأدت الإطاحة بألتمان إلى استقالات أو تهديدات بالاستقالات، بما في ذلك رسالة مفتوحة موقعة من جميع موظفي الشركة تقريباً، وضجة من المستثمرين، بما في ذلك «مايكروسوفت». وفي غضون أسبوع، عاد ألتمان إلى الشركة، وخرج أعضاء مجلس الإدارة هيلين تونر، وتاشا ماكولي، وإيليا سوتسكيفر، الذين صوتوا لإقالة ألتمان.
اقرأ أيضاًوزير الاتصالات يبحث مع سفير التشيك تعزيز التعاون في الذكاء الاصطناعي والتعهيد
وزير الصناعة الإماراتي: تسخير الذكاء الاصطناعي يتيح فرصا مهمة لبناء شراكات متنوعة في مجال الطاقة
ضمن مشروعات تخرج إعلام القاهرة.. «بيننا» أول مدونة عن الذكاء الاصطناعي
المصدر: الأسبوع
كلمات دلالية: الذكاء الاصطناعي الذكاء الإصطناعي تطبيقات الذكاء الاصطناعي ذكاء اصطناعي مخاطر مخاطر الذكاء الاصطناعي أضرار الذكاء الاصطناعي أوبن إيه آي الذكاء الخارق شركة OpenAI الذکاء الاصطناعی أوبن إیه آی
إقرأ أيضاً:
دولة أوروبية تحظر تطبيق "ديب سيك" للذكاء الاصطناعي
قالت هيئة حماية البيانات الإيطالية يوم الخميس إنها حظرت نموذج الذكاء الاصطناعي الصيني "ديب سيك" بسبب نقص المعلومات حول البيانات الشخصية التي يجمعها.
وأوضحت الهيئة في مذكرة على موقعها على الإنترنت أن قرار حظر "ديب سيك" دخل حيز التنفيذ على الفور.
وكانت الهيئة قد ذكرت يوم الثلاثاء أنها تسعى للحصول على معلومات من شركة "ديب سيك" تتعلق بالبيانات التي يجمعها نموذجها للذكاء الاصطناعي.
وذكرت هيئة حماية البيانات الأيرلندية الأربعاء أنها وجهت خطابا مكتوبا إلى "ديب سيك" تعبّر فيها عن مخاوفها من احتمال انتهاكها لقانون حماية الخصوصية في الاتحاد الأوروبي.
ونقلت وكالة بلومبرغ للأنباء عن غرافام دويل نائب رئيس الهيئة القول "كتبنا إلى ديب سيك لطلب معلومات بشأن معالجة البيانات التي تمت بشأن بيانات أطراف في أيرلندا".
جدير بالذكر أن "ديب سيك" أطلقت مطلع الأسبوع الحالي نموذج لغة جديدا للذكاء الاصطناعي بإمكانيات تفوق النماذج التي تقدمها الشركات الأميركية الكبرى مثل "أوبن إيه آي" وبتكلفة زهيدة للغاية.
ويعتمد نموذج "ديب سيك" على 2000 رقاقة فقط بتكلفة بلغت 5.6 مليون دولار ليحقق نفس النتائج التي تحققها نماذج الشركات الأميركية التي تحتاج إلى 16 ألف رقاقة بتكلفة تتراوح بين 100 و200 مليون دولار.
وتجري شركة "مايكروسوفت "وشركة "أوبن إيه آي" مالكة تطبيق "تشات جي بي تي" تحقيقا لمعرفة ما إذا كانت مجموعة قرصنة مرتبطة بشركة "ديب سيك" قد حصلت على بيانات خاصة بتقنيات "أوبن إيه آي" بطرق غير قانونية، بحسب مصادر تحدثت لوكالة بلومبرغ.
ورصد باحثون في شؤون الأمن لدى "مايكروسوفت" قبل أشهر أفرادا يُعتقد أنهم مرتبطون بشركة "ديب سيك" وهم يستخرجون كمية كبيرة من البيانات باستخدام واجهة برمجة التطبيقات الخاصة بـشركة "أوبن إيه آي"، حسب الأشخاص الذين طلبوا عدم الكشف عن هوياتهم لأن الأمر سري.
من ناحيته، أوضح ديفيد ساكس، مستشار الذكاء الاصطناعي للرئيس دونالد ترامب، أن هناك أدلة قوية على أن "ديب سيك" اعتمدت على مخرجات نماذج "أوبن إيه آي" للمساعدة في تطوير تقنيتها الخاصة.