أطلق إيليا سوتسكيفر، أحد مؤسسي شركة "أوبن إيه آي"، شركة ناشئة جديدة للمنافسة في مجال الذكاء الاصطناعي تهدف إلى "تطوير ذكاء فائق آمن"، وذلك بعد شهر واحد فقط من استقالته من "أوبن إيه آي"، حسب شبكة "سي إن بي سي".

وأعلن سوتسكيفر، أمس الأربعاء، تأسيس شركة "سيف سوبر إنتليجنس" (Safe Superintelligence) التي تصف نفسها بأنها "أول مختبر للذكاء الاصطناعي الفائق في العالم بهدف ومنتج واحد: ذكاء فائق آمن"، وذلك وفقا لبيان نشرته الشركة على منصة إكس.

وأضاف البيان أن مقرات الشركة ستكون في كل من بالو ألتو وتل أبيب.

Superintelligence is within reach.

Building safe superintelligence (SSI) is the most important technical problem of our​​ time.

We’ve started the world’s first straight-shot SSI lab, with one goal and one product: a safe superintelligence.

It’s called Safe Superintelligence…

— SSI Inc. (@ssi) June 19, 2024

ذكاء فائق آمن

شارك سوتسكيفر في تأسيس الشركة الناشئة في الولايات المتحدة مع دانيال ليفي، الموظف السابق في "أوبن إيه آي"، والمستثمر ورائد الأعمال في مجال الذكاء الاصطناعي دانيال جروس، الذي عمل شريكا في حاضنة الشركات الناشئة في وادي السيليكون التي كان يديرها سابقا سام ألتمان.

كما ذكر الثلاثي في البيان أن تطوير الذكاء الفائق الآمن -وهو نوع من ذكاء الآلة الذي قد يفوق القدرات الذهنية البشرية- هو "محور التركيز الوحيد" للشركة، وأضافوا أنها لن تتقيد بمطالبات المستثمرين بتحقيق الإيرادات.

كانت مهمة "أوبن إيه آي" مشابهة لمهمة الشركة الجديدة "إس إس آي" (SSI) عندما تأسست عام 2015 لتكون مختبر أبحاث لا يهدف للربح لابتكار ذكاء اصطناعي فائق يعود بالنفع على البشرية. وبينما يدعي ألتمان أن هذا لا يزال المبدأ الأساسي الذي تتبعه "أوبن إيه آي"، إلا أن الشركة قد تحولت إلى مشروع تجاري سريع النمو تحت قيادته.

يُعد سوتسكيفر أحد أبرز الباحثين في مجال الذكاء الاصطناعي في العالم، وقد أدى دورا رائدا في صدارة شركة "أوبن إيه آي" المبكرة في مجال الذكاء الاصطناعي التوليدي. ويأتي الإعلان عن تأسيس شركته الناشئة الجديدة بعد فترة من الاضطرابات في "أوبن إيه آي" التي تركزت على صدامات مع الإدارة وسام ألتمان حول توجهات الشركة نحو الأمان والسلامة.

انقلاب داخل "أوبن إيه آي"

في مايو/أيار الماضي، قررت شركة "أوبن إيه آي" حل الفريق الذي يركز على المخاطر الطويلة الأمد للذكاء الاصطناعي بعد عام واحد فقط من إعلانها تشكيل هذا الفريق. وكان قادة هذا الفريق إيليا سوتسكيفر وجان ليكه، اللذين أعلنا قبلها بأيام رحيلهما عن الشركة.

لم يكشف سوتسكيفر أسباب رحيله، لكن ليكه أوضح بعض التفاصيل حول سبب مغادرته الشركة، وذكر عبر حسابه على منصة إكس أن "صنع آلات أكثر ذكاء من البشر مسعى محفوف بالمخاطر بطبيعته. تتحمل أوبن إيه آي مسؤولية هائلة نيابة عن البشرية بأسرها. ولكن على مدى السنوات الماضية، تراجعت ثقافة السلامة وعملياتها على حساب المنتجات البرّاقة".

وفي نوفمبر/تشرين الثاني الماضي، حاول إيليا سوتسكيفر، بالتعاون مع مجلس إدارة الشركة، طرد سام ألتمان الرئيس التنفيذي، وذكر حينها المشاركون في هذا الانقلاب أن "ألتمان لم يكن صريحا باستمرار في تواصله مع مجلس الإدارة"، بمعنى أنهم لا يثقون به، ولذا قرروا التصرف سريعا والتخلص منه.

لكن المشكلة بدأت تزداد تعقيدا يوما تلو الآخر، وذكرت صحيفة وول ستريت جورنال وغيرها من وسائل الإعلام أن سوتسكيفر وجّه تركيزه على ضمان عدم إلحاق الذكاء الاصطناعي أي أذى بالبشر، بينما حرص آخرون، بمن فيهم ألتمان، على المضي قدما في تطوير التكنولوجيا الجديدة.

لكن عاد سام ألتمان إلى منصبه في "أوبن إيه آي" في غضون أسبوع، وخرج أعضاء مجلس الإدارة هيلين تونر وتاشا ماكولي وإيليا سوتسكيفر، الذين صوتوا على الإطاحة بألتمان، وبقي سوتسكيفر حينها ضمن الموظفين، ولكن لم يعد عضوا في مجلس الإدارة.

المصدر: الجزيرة

كلمات دلالية: حريات فی مجال الذکاء الاصطناعی أوبن إیه آی

إقرأ أيضاً:

الذكاء الاصطناعي العام (AGI) الخطوة التالية لقطاع التكنولوجيا..ما المخاطر؟!

في ظل التسارع المذهل في تطوير تقنيات الذكاء الاصطناعي، يتطلع قادة التكنولوجيا والأعمال إلى الخطوة التالية في هذا المجال، وهي "الذكاء العام الاصطناعي" (AGI)، وهو نوع من الذكاء الاصطناعي يتمتع بقدرات إدراكية شبيهة بالبشر.

إن إيجاد طرق جديدة لضمان عدم عمل هذه الآلة -التي تتمتع بمستوى ذكاء البشر نفسه- ضد مصالح البشر،هدف مهم  يسعى إليه الباحثون، ويصبح من الضروري أن تتكاتف الجهود، في الوصول إليه.

وأصدر باحثون في شركة "جوجل ديب مايند" التابعة لجوجل ورقة بحثية جديدة، مكونة من أكثر من 100 صفحة، تشرح طريقة تطوير الذكاء العام الاصطناعي بأمان. بحسب تقرير لموقع "ArsTechnica" المتخصص في أخبار التكنولوجيا.
اقرأ أيضاً..الذكاء الاصطناعي.. من منظور إيجابي 

تشير تقديرات "ديب مايند" إلى إمكانية ظهور AGI خلال السنوات الخمس القادمة، وتحديدًا بحلول عام 2030، مما يستدعي تعاونًا دوليًا عاجلًا لوضع الأطر القانونية والأخلاقية.

لا يملك البشر حتى الآن وسيلة لمنع خروج الذكاء العام الاصطناعي -في حالة الوصول إليه- عن السيطرة، لكن الباحثين في شركة "جوجل ديب مايند" التابعة لجوجل يعملون على هذه المشكلة.

كشف الباحثون عن أربعة مخاطر رئيسية قد تنجم عن تطوير الذكاء الاصطناعي العام (AGI) الشبيه بذكاء الإنسان وقد يؤدي إلى "أضرار جسيمة"، لأجل هذا سعوا إلى فهم مخاطره.

أبرز المخاطر
حدد الباحثون أربعة أنواع محتملة من مخاطر الذكاء العام الاصطناعي، وقدموا اقتراحات حول طرق التخفيف من هذه المخاطر.

وصنّف فريق "ديب مايند" النتائج السلبية للذكاء العام الاصطناعي على أنها سوء الاستخدام، والانحراف، والأخطاء، والمخاطر الهيكلية. وقد ناقش البحث سوء الاستخدام والانحراف بإسهاب، وتناول الأخيران بإيجاز.

 
المشكلة المحتملة الأولى، هي سوء الاستخدام،  بحيث تتشابه بشكل أساسي مع مخاطر الذكاء الاصطناعي الحالية. ومع ذلك، ولأن الذكاء العام الاصطناعي سيكون أقوى بحكم تعريفه، فإن الضرر الذي قد يُلحقه سيكون أكبر بكثير.

وقد يُسيء أي شخص لديه إمكانية الوصول إلى الذكاء العام الاصطناعي استخدام النظام لإلحاق الضرر، على سبيل المثال، من خلال مطالبة النظام بتحديد ثغرات واستغلالها، أو إنشاء فيروس مُصمَّم يمكن استخدامه كسلاح بيولوجي.

قال فريق "ديب مايند" إنه سيتعين على الشركات التي تُطور الذكاء العام الاصطناعي إجراء اختبارات مكثفة ووضع بروتوكولات سلامة قوية لما بعد التدريب. بعبارة أخرى، حواجز أمان معززة للذكاء الاصطناعي.

ويقترح الفريق أيضًا ابتكار طريقة لكبح القدرات الخطيرة تمامًا، تُسمى أحيانًا "إلغاء التعلم" (unlearning)، ولكن من غير الواضح ما إذا كان ذلك ممكنًا من دون تقييد قدرات النماذج بشكل كبير.

أما مشكلة "الانحراف" فهي ليست محل قلق حاليًا مع الذكاء الاصطناعي التوليدي في صورته الحالية. لكن مع الذكاء العام الاصطناعي قد يختلف الأمر.

أخبار ذات صلة رفاهية أكثر في «ياس» بالذكاء الاصطناعي مساعد AI لتحسين سير العمل بالمصانع من مايكروسوفت

تُصور مشكلة "الانحراف" هذه كآلة متمردة تجاوزت القيود التي فرضها عليها مصمموها، كما هو الحال في فيلم "ترميناترو". وبشكل أكثر تحديدًا، يتخذ الذكاء الاصطناعي إجراءات يعلم أنها لا تتماشى مع ما يقصده المطور.

وقالت "ديب مايند" إن معيارها للانحراف في ما يتعلق بالذكاء العام الاصطناعي أكثر تقدمًا من مجرد الخداع أو التخطيط.
حلول مقترحة
لتجنب ذلك، تقترح  "ديب مايند" على المطورين استخدام تقنيات مثل الإشراف المُعزز، حيث تتحقق نسختان من الذكاء الاصطناعي من مخرجات بعضهما البعض، لإنشاء أنظمة قوية من لا يُحتمل أن تنحرف عن مسارها.

وإذا فشل ذلك، تقترح "ديب مايند" إجراء اختبارات ضغط ومراقبة مكثفة لاكتشاف أي مؤشر على أن الذكاء الاصطناعي قد يبدأ في التمرد ضدنا.

وقالت إن إبقاء الذكاء الاصطناعي العام في بيئة افتراضية آمنة للغاية وإشراف بشري مباشر يمكن أن يُساعد في التخفيف من حدة المشكلات الناجمة عن الانحراف.

الأخطاء
من ناحية أخرى، إذا لم يكن الذكاء الاصطناعي يعلم أن مخرجاته ستكون ضارة، ولم يكن المشغل البشري يقصد ذلك، فهذا "خطأ". ويحدث الكثير من هذه الأخطاء مع أنظمة الذكاء الاصطناعي الحالية.مع ذلك، قد تكون هذه المشكلة أصعب مع الذكاء العام الاصطناعي.
تشير "ديب مايند" إلى أن الجيوش قد تنشر الذكاء العام الاصطناعي بسبب "الضغط التنافسي"، لكن هذه الأنظمة قد ترتكب أخطاء جسيمة لأنها ستُكلف بوظائف أكثر تعقيدًا بكثير من الذكاء الاصطناعي الحالي.

توصي الورقة بعدد من الإجراءات الوقائية،  للحد من الأخطاء. باختصار، يتلخص الأمر في عدم السماح للذكاء العام الاصطناعي بأن يصبح قويًا جدًا في المقام الأول.

وتدعو "ديب مايند" إلى نشر الذكاء العام الاصطناعي تدريجيًا والحد من صلاحياته، وتمرير أوامر الذكاء العام الاصطناعي عبر نظام حماية يضمن أن تكون آمنة قبل تنفيذها.

مخاطر هيكلية
تُعرف "ديب مايند" المخاطر الهيكلية على أنها عواقب غير مقصودة، وإن كانت حقيقية، للأنظمة متعددة الوكلاء التي تُسهم في تعقيد حياتنا البشرية.

على سبيل المثال، قد يُنتج الذكاء العام الاصطناعي معلومات مُضلّلة تبدو مُقنعة لدرجة أننا لم نعد نعرف بمن أو بما نثق. كما تُثير الورقة البحثية احتمالية أن يُراكِم الذكاء العام الاصطناعي سيطرة متزايدة على الأنظمة الاقتصادية والسياسية، ربما من خلال وضع مخططات تعريفات جمركية مُفرطة.

وقد تؤدي هذه المخاطر الهيكلية إلى أن نجد في يومٍ ما أن الآلات هي المُسيطرة بدلًا منّا.

وتُعتبر هذه الفئة من المخاطر أيضًا الأصعب في الحماية منها، لأنها ستعتمد على طريقة عمل الأفراد والبنية التحتية والمؤسسات في المستقبل.

لضمان أن يكون الذكاء الاصطناعي العام أداة لخدمة البشرية، لا مصدرًا لتهديدها..كما تشير "ديب مايند"، فإن التقدم نحو AGI قد يكون أسرع مما نتخيل، ما يجعل من وضع الحواجز الأخلاقية والتقنية ضرورة عاجلة لا تحتمل التأجيل.
لمياء الصديق(أبوظبي)

مقالات مشابهة

  • مسار جديد لقيادة الذكاء الاصطناعي في أوروبا
  • «معلومات الوزراء» يوضح تأثير الذكاء الاصطناعي على سوق العمل
  • معلومات الوزراء يوضح تأثير الذكاء الاصطناعي على سوق العمل
  • عدسات الذكاء الاصطناعي تجربة تفاعلية جديدة من سناب شات
  • أي دولة ستحسم سباق ريادة الذكاء الاصطناعي عالميًا؟
  • تحذير أممي: الذكاء الاصطناعي قد يؤثر على 40% من الوظائف خلال العقد المقبل
  • رفقاء افتراضيون: هل يهدد الذكاء الاصطناعي جوهر العلاقات الإنسانية؟
  • الذكاء الاصطناعي يرصد مخالفات استخدام الهاتف في الأردن
  • عاجل | سي إن بي سي: مايكروسوفت تفصل المهندسة ابتهال أبو السعد التي احتجت على تزويد الشركة إسرائيل بأنظمة ذكاء اصطناعي
  • الذكاء الاصطناعي العام (AGI) الخطوة التالية لقطاع التكنولوجيا..ما المخاطر؟!