OpenAI تمنح الحكومة الأمريكية الوصول المبكر إلى نموذج الذكاء الاصطناعي التالي
تاريخ النشر: 2nd, August 2024 GMT
كشف سام ألتمان في تغريدة أن شركة OpenAI ستمنح معهد سلامة الذكاء الاصطناعي الأمريكي الوصول المبكر إلى نموذجه التالي كجزء من جهوده في مجال السلامة.
ويبدو أن الشركة تعمل مع الكونسورتيوم "لدفع علم تقييمات الذكاء الاصطناعي إلى الأمام".
أنشأ المعهد الوطني للمعايير والتكنولوجيا (NIST) رسميًا معهد سلامة الذكاء الاصطناعي في وقت سابق من هذا العام، على الرغم من أن نائبة الرئيس كامالا هاريس أعلنت عن ذلك في عام 2023 في قمة سلامة الذكاء الاصطناعي في المملكة المتحدة.
استنادًا إلى وصف المعهد الوطني للمعايير والتكنولوجيا للكونسورتيوم، فإنه يهدف إلى "تطوير إرشادات ومعايير قائمة على العلم ومدعومة تجريبياً لقياس الذكاء الاصطناعي والسياسات، ووضع الأساس لسلامة الذكاء الاصطناعي في جميع أنحاء العالم".
وتعهدت الشركة، جنبًا إلى جنب مع DeepMind، بمشاركة نماذج الذكاء الاصطناعي مع حكومة المملكة المتحدة العام الماضي. وكما يشير موقع TechCrunch، كانت هناك مخاوف متزايدة من أن شركة OpenAI تجعل السلامة أقل أولوية حيث تسعى إلى تطوير نماذج ذكاء اصطناعي أكثر قوة. كانت هناك تكهنات بأن مجلس الإدارة قرر طرد سام ألتمان من الشركة - أعيد تعيينه بسرعة كبيرة - بسبب مخاوف تتعلق بالسلامة والأمن. ومع ذلك، أخبرت الشركة أعضاء الموظفين في مذكرة داخلية في ذلك الوقت، أن ذلك كان بسبب "انهيار في الاتصالات".
في مايو من هذا العام، اعترفت شركة OpenAI بأنها حلت فريق Superalignment الذي أنشأته لضمان بقاء البشرية آمنة مع تقدم الشركة في عملها على الذكاء الاصطناعي التوليدي.
قبل ذلك، ترك الشركة المؤسس المشارك لشركة OpenAI ورئيس العلماء إيليا سوتسكيفر، الذي كان أحد قادة الفريق. كما استقال جان لايكي، الذي كان أيضًا أحد قادة الفريق.
وقال في سلسلة من التغريدات إنه كان يختلف مع قيادة OpenAI بشأن الأولويات الأساسية للشركة لبعض الوقت وأن "ثقافة السلامة والعمليات أصبحت في مرتبة ثانوية للمنتجات اللامعة". أنشأت OpenAI مجموعة سلامة جديدة بحلول نهاية مايو، لكنها بقيادة أعضاء مجلس الإدارة بما في ذلك ألتمان، مما أثار مخاوف بشأن الرقابة الذاتية.
بعض التحديثات السريعة حول السلامة في openai:
كما ذكرنا في يوليو الماضي، نحن ملتزمون بتخصيص ما لا يقل عن 20% من موارد الحوسبة لجهود السلامة في جميع أنحاء الشركة.
كان فريقنا يعمل مع معهد سلامة الذكاء الاصطناعي الأمريكي على اتفاقية حيث سنوفر.
المصدر: بوابة الوفد
كلمات دلالية: سلامة الذکاء الاصطناعی
إقرأ أيضاً:
الذكاء الاصطناعي يُشعل الخلاف بين ترامب وإلون ماسك
تسبب مشروع بخصوص الذكاء الاصطناعي في إشعال الخلاف بين الرئيس الأمريكي دونالد ترامب ورائد الأعمال والملياردير الشهير إلون ماسك.
اقرأ أيضاً: العدوان على غزة يُحفز سلسلة من جرائم الكراهية ضد المسلمين
البابا فرانسيس يشكر مصر بعد إنجاز اتفاق غزة لبنان بعد انتخاب عون رئيساً.. خريطة طريق بدون حزب اللهوسردت شبكة سي إن إن الأمريكية تفاصيل القصة إذ قالت إنه بعد فترة وجيزة من إعلان الرئيس ترامب إقامة مشروع جديد بشأن دعم البنية التحتية للذكاء الاصطناعي قام ماسك بالتشكيك في المشروع برمته.
وقال ماسك في تعليقه عبر موقع إكس (المملوك له) :"هم بالفعل لا يملكون المال، رصيد سوفت بانك يقل عن 10 مليار دولار".
وكان ترامب قد أعلن عن استثمار في شركة جديدة تُدعى "ستارجيت"، وتهدف الشركة الجديدة لدعم البنية التحتية للذكاء الاصطناعي في أمريكا.
ويأتي إعلان ترامب عن الشركة الجديدة بالتعاون مع سوفت بانك وشركة أوبن إيه آي وأوراكل.
وبُناءً على الخطة المُعلنة فإن الشركات المُشار إليها ستستثمر بما قيمته 100 مليون باوند لبداية المشروع، على أن يضخوا 500 مليار دولار في المشروع خلال السنوات المُقبلة.
ولم يرد ترامب أو أحد من إدارته على مزاعم ماسك، وستكشف الأيام المُقبلة عن السؤال بشأن مدى صدق تصريح رائد الأعمال المُشكك في جدوى مشروع الرئيس الأمريكي.
تبذل الولايات المتحدة جهودًا كبيرة لتطوير مجال الذكاء الاصطناعي باعتباره عنصرًا أساسيًا في تعزيز ريادتها التكنولوجية والاقتصادية.
تعمل الحكومة الأمريكية على وضع استراتيجيات وطنية تهدف إلى تسريع البحث والتطوير في هذا المجال، مثل إصدار "خطة المبادرة الوطنية للذكاء الاصطناعي" التي تسعى إلى تعزيز الابتكار وتوسيع نطاق الاستثمار في الأبحاث الأساسية والتطبيقية. تمثل المؤسسات الأكاديمية والمختبرات الحكومية والشركات التكنولوجية الكبرى مثل "مايكروسوفت" و"جوجل" و"أوبن إيه آي" محاور رئيسية في تطوير حلول الذكاء الاصطناعي التي تُستخدم في قطاعات متعددة كالصحة، والتعليم، والطاقة، والدفاع. كما توفر الولايات المتحدة تمويلاً كبيرًا لمشاريع الذكاء الاصطناعي من خلال وكالات مثل وكالة مشاريع البحوث المتطورة للدفاع (DARPA)، التي تدعم الابتكارات الرائدة.
على المستوى التشريعي، تعمل الحكومة الأمريكية على وضع إطار قانوني وأخلاقي لتنظيم استخدام الذكاء الاصطناعي وضمان تطويره بطريقة تحترم القيم الديمقراطية وحقوق الإنسان. تُركّز الجهود أيضًا على بناء قوى عاملة متخصصة من خلال تعزيز برامج التعليم والتدريب في الذكاء الاصطناعي داخل الجامعات والمعاهد.
تسعى أمريكا أيضًا إلى التعاون مع الدول الحليفة والمؤسسات الدولية لوضع معايير عالمية لاستخدام الذكاء الاصطناعي. في الوقت نفسه، تولي اهتمامًا كبيرًا للأمن السيبراني وحماية البيانات لضمان الاستخدام الآمن للتكنولوجيا.
هذه الجهود المتكاملة تُظهر التزام الولايات المتحدة بأن تكون في طليعة الابتكار العالمي في مجال الذكاء الاصطناعي مع الحرص على مواجهة التحديات المرتبطة به.