بوابة الوفد:
2025-03-09@23:15:28 GMT

مجلس السلامة الجديد في OpenAI من دون سام ألتمان

تاريخ النشر: 17th, September 2024 GMT

أعلنت OpenAI عن تغييرات كبيرة في ممارسات السلامة والأمن الخاصة بها، بما في ذلك إنشاء لجنة إشراف مستقلة جديدة لمجلس الإدارة.

 تأتي هذه الخطوة مع تحول ملحوظ: لم يعد الرئيس التنفيذي سام ألتمان جزءًا من لجنة السلامة، مما يمثل خروجًا عن الهيكل السابق.

سيرأس لجنة السلامة والأمن (SSC) المشكلة حديثًا زيكو كولتر، مدير قسم التعلم الآلي في جامعة كارنيجي ميلون.

 

ومن بين الأعضاء الرئيسيين الآخرين الرئيس التنفيذي لشركة Quora آدم دانجيلو، والجنرال المتقاعد في الجيش الأمريكي بول ناكاسوني، ونيكول سيليجمان، نائب الرئيس التنفيذي السابق والمستشار العام لشركة Sony Corporation.

تحل هذه اللجنة الجديدة محل لجنة السلامة والأمن السابقة التي تم تشكيلها في يونيو 2024، والتي ضمت ألتمان بين أعضائها.

 تم تكليف اللجنة الأصلية بتقديم توصيات بشأن قرارات السلامة والأمن الحاسمة لمشاريع وعمليات OpenAI.

تمتد مسؤوليات لجنة السلامة والأمن الآن إلى ما هو أبعد من التوصيات. وستتمتع اللجنة بسلطة الإشراف على تقييمات السلامة لإصدارات النماذج الرئيسية وممارسة الرقابة على إطلاق النماذج.

 والأمر الحاسم هو أن اللجنة ستتمتع بسلطة تأخير الإصدار حتى تتم معالجة المخاوف المتعلقة بالسلامة بشكل كافٍ.

تأتي إعادة الهيكلة هذه بعد فترة من التدقيق فيما يتعلق بالتزام OpenAI بسلامة الذكاء الاصطناعي. 

واجهت الشركة انتقادات في الماضي لحل فريق Superalignment ورحيل الموظفين الرئيسيين الذين يركزون على السلامة. 

ويبدو أن إزالة ألتمان من لجنة السلامة هي محاولة لمعالجة المخاوف بشأن تضارب المصالح المحتمل في إشراف الشركة على السلامة.

تتضمن أحدث مبادرة سلامة لشركة OpenAI أيضًا خططًا لتعزيز تدابير الأمن وزيادة الشفافية حول عملهم والتعاون مع المنظمات الخارجية.

 وقد توصلت الشركة بالفعل إلى اتفاقيات مع معاهد سلامة الذكاء الاصطناعي في الولايات المتحدة والمملكة المتحدة للتعاون في البحث في مخاطر سلامة الذكاء الاصطناعي الناشئة ومعايير الذكاء الاصطناعي الجدير بالثقة.

المصدر: بوابة الوفد

كلمات دلالية: الذکاء الاصطناعی السلامة والأمن لجنة السلامة

إقرأ أيضاً:

هل تقضي روبوتات الذكاء الاصطناعي على الصدق في تطبيقات المواعدة؟

تشهد تطبيقات المواعدة تحولًا كبيرًا مع بدء دمج روبوتات الذكاء الاصطناعي لمساعدة المستخدمين في صياغة الرسائل، اختيار الصور، وكتابة الملفات الشخصية، مما يثير مخاوف بشأن تآكل المصداقية في التفاعلات عبر الإنترنت.

الذكاء الاصطناعي يدخل عالم المواعدة

أعلنت Match Group، الشركة المالكة لمنصات مثل Tinder وHinge، عن زيادة استثماراتها في تقنيات الذكاء الاصطناعي، حيث ستطلق ميزات جديدة هذا الشهر لمساعدة المستخدمين في تحسين ظهورهم على التطبيق، وصياغة رسائل جذابة، وتقديم نصائح حول كيفية التفاعل مع الآخرين.

لكن هذه الخطوة أثارت جدلًا واسعًا، إذ يرى خبراء أن الاعتماد المفرط على الذكاء الاصطناعي في بناء العلاقات العاطفية قد يزيد من مشكلات العزلة الاجتماعية، ويفقد المستخدمين مهارات التواصل الفعلية عند اللقاءات الحقيقية بعيدًا عن شاشاتهم.

مخاوف بشأن المصداقية والانعزال الاجتماعي

أحد أبرز التحديات التي تطرحها هذه التقنية هو صعوبة التمييز بين المستخدمين الحقيقيين وأولئك الذين يعتمدون على الذكاء الاصطناعي في تفاعلاتهم.

فيما قاد  د. لوك برانينج، محاضر في الأخلاقيات التطبيقية بجامعة ليدز، حملة تطالب بتنظيم هذه الميزة، مشيرًا إلى أن "استخدام التكنولوجيا لحل مشكلات اجتماعية سببها التكنولوجيا قد يؤدي إلى تفاقم الأوضاع، وليس إصلاحها".

وأعرب عشرات الأكاديميين من بريطانيا، الولايات المتحدة، كندا وأوروبا عن قلقهم من أن التوسع السريع في ميزات الذكاء الاصطناعي على تطبيقات المواعدة قد يؤدي إلى تفاقم أزمة الصحة العقلية والعزلة، إلى جانب تعزيز التحيزات العنصرية والجندرية الموجودة في الخوارزميات، مما يزيد من التحديات التي تواجه المستخدمين."

التحديات والفرص: هل الذكاء الاصطناعي حل أم مشكلة؟

يرى مؤيدو هذه التقنيات أنها قد تساعد في تخفيف الإرهاق الناتج عن التفاعل المطول مع التطبيقات، حيث يمكن للمستخدمين الاستفادة من "مساعدي المواعدة الافتراضيين" لصياغة رسائل فعالة دون الحاجة لقضاء ساعات في البحث عن العبارات المناسبة.

أحد الأمثلة البارزة هو ألكسندر جادان، مدير منتج، الذي قام ببرمجة روبوت ذكاء اصطناعي باستخدام ChatGPT للتواصل مع أكثر من 5000 امرأة على Tinder، ما أدى في النهاية إلى العثور على شريكته الحالية.

هل يجب فرض رقابة على الذكاء الاصطناعي في المواعدة؟

يرى برانينغ أن تطبيقات المواعدة يجب أن تخضع لرقابة مماثلة لتلك المفروضة على منصات التواصل الاجتماعي، قائلًا: "تستهدف تطبيقات المواعدة مشاعرنا الأكثر حميمية ورغباتنا العاطفية، لذا يجب أن تكون قيد رقابة تنظيمية أكثر صرامة."

من جهتها، أكدت Match Group أن استخدام الذكاء الاصطناعي سيتم بطريقة "أخلاقية ومسؤولة مع مراعاة سلامة المستخدمين وثقتهم".

 بينما قالت Bumble إنها ترى أن الذكاء الاصطناعي يمكن أن "يعزز الأمان ويحسن التجربة، دون أن يحل محل التواصل البشري."

الخلاصة: إلى أين تتجه المواعدة الرقمية؟

مع وجود أكثر من 60.5 مليون مستخدم لتطبيقات المواعدة في الولايات المتحدة وحدها، و4.9 مليون مستخدم في المملكة المتحدة، بات السؤال الأهم هو: هل يؤدي دمج الذكاء الاصطناعي في هذه المنصات إلى تسهيل بناء العلاقات، أم أنه سيؤدي إلى فقدان الثقة والارتباط العاطفي الحقيقي؟

بينما يرى البعض أن الذكاء الاصطناعي قد يساعد في تخفيف ضغوط المواعدة، فإن آخرين يحذرون من أنه قد يحول العلاقات العاطفية إلى تجربة غير واقعية، حيث يتحدث الجميع بنفس الأسلوب، ويصبح الصدق والتلقائية عملة نادرة في عالم المواعدة الرقمية.

مقالات مشابهة

  • الصحة النيابية: سنعمل مع مجلس الوزراء لضمان تعيين خريجي الكليات والمعاهد الطبية
  • "التعليم العالي": فتح باب التقديم لمشروع إنشاء مركز سلامة وأمان الذكاء الاصطناعي
  • فتح باب التقديم لمشروع إنشاء مركز سلامة وأمان الذكاء الاصطناعي في التعليم العالي
  • فتح باب التقديم لإنشاء مركز سلامة وأمان الذكاء الاصطناعي في التعليم العالي
  • هل تقضي روبوتات الذكاء الاصطناعي على الصدق في تطبيقات المواعدة؟
  • ميار الببلاوي تكشف سر شطور .. رفيقها الجديد في الذكاء الاصطناعي
  • OpenAI تستعد لإطلاق وكلاء الذكاء الاصطناعي باشتراك 20 ألف دولار شهريا
  • مايكروسوفت تستثمر في الذكاء الاصطناعي في جنوب أفريقيا
  • النفط النيابية: وجود تلكؤ في عمل الشركة الأوكرانية المشغلة لحقل "عكاز" الغازي
  • تحديث “شات جي بي تي” الجديد يقود الذكاء الاصطناعي إلى مرحلة جديدة من التطور