طموحات خارقة.. هل تمثل سياسة أوبن إيه آي خطرا على البشرية؟
تاريخ النشر: 23rd, May 2024 GMT
في الفترة الأخيرة، احتلت شركة أوبن إيه آي مكانة استثنائية في الأوساط التقنية، فربما أشهر منتجات مجال الذكاء الاصطناعي التوليدي حاليا هي منتجاتها، خاصة بعد إطلاقها روبوت المحادثة الأشهر "شات جي بي تي" في نهاية نوفمبر/تشرين الثاني عام 2022.
كما أن اقتراب عقد الصفقة مع شركة آبل، لكي يعمل "شات جي بي تي" داخل هواتف الآيفون، يضع الشركة الناشئة بين أكبر شركتين في العالم حاليا: مايكروسوفت وآبل، ويمنحها الفرصة لتعمل في مجال الشركات مع عملاء مايكروسوفت، بجانب الاستفادة من مواردها الضخمة، كما ستستفيد من عملاء شركة آبل ومستخدمي أجهزتها كهواتف الآيفون.
لكن ما يميّز "أوبن إيه آي" فعلا عن غيرها من الشركات هو الطموح الهائل الذي تسعى لتحقيقه، فهي لا تكتفِ بما وصلت إليه من إنجازات، بل تذكر أنها تحاول تطوير الذكاء الاصطناعي العام (AGI)، الذي من المفترض أن يكون نظاما بإمكانه أداء المهام بمستويات التفكير البشري أو ربما يتجاوزها في العديد من المجالات، لهذا من المفترض أن تملك الشركة سياسة واضحة للأمان والسلامة، في حال سعيها لتطوير مثل هذه النماذج الخارقة في المستقبل القريب.
حل فريق المخاطرفي شهر يوليو/تموز من العام الماضي، أعلنت شركة أوبن إيه آي عن تشكيل فريق بحثي جديد يتولى مهمة الاستعداد لتطوير ذكاء اصطناعي "خارق الذكاء"، بإمكانه التفوق على مبتكريه والتغلب عليهم.
واختارت الشركة حينها إيليا سوتسكيفر، رئيس الباحثين وأحد مؤسسيها، ليكون قائدا مشاركا لهذا الفريق الجديد مع جان ليكه، وذكرت "أوبن إيه آي" وقتها أن الفريق سيحظى بنسبة 20% من طاقتها الحاسوبية على مدار 4 سنوات.
وكانت مهمة الفريق الأساسية هي التركيز على "الإنجازات العلمية والتقنية لتوجيه أنظمة الذكاء الاصطناعي الأكثر ذكاء منا والتحكم فيها".
منذ عدة أشهر، كادت شركة أوبن إيه آي تخسر موظفيها المهتمين للغاية بضمان أمان أنظمة الذكاء الاصطناعي التي تطورها الشركة.
والآن، بدأت الشركة في الاستغناء عنهم نهائيا، إذ قررت الإدارة، بقيادة رئيسها التنفيذي سام ألتمان، حل هذا الفريق الذي كان يركز على المخاطر طويلة الأمد للذكاء الاصطناعي بعد عام واحد من إعلانها تشكيله، وفقا لما أكده شخص مطلع على الوضع لشبكة "سي إن بي سي" منذ عدة أيام.
وذكر الشخص، الذي تحدث بشرط عدم الكشف عن هويته، أن بعض أعضاء الفريق قد أُعيد تعيينهم في عدة فرق أخرى داخل الشركة.
وقبل هذا الخبر بأيام قليلة، أعلن قائدا الفريق إيليا سوتسكيفر وجان ليكه رحيلهما عن الشركة الناشئة، ولم يكشف سوتسكيفر أسباب رحيله، لكن ليكه أوضح بعض التفاصيل حول سبب مغادرته الشركة، وذكر عبر حسابه على منصة إكس: "إن صنع آلات أكثر ذكاء من البشر مسعى محفوف بالمخاطر بطبيعته. تتحمل أوبن إيه آي مسؤولية هائلة نيابة عن البشرية بأسرها. ولكن على مدى السنوات الماضية، تراجعت ثقافة السلامة وعملياتها على حساب المنتجات البرّاقة".
إن كنا داخل أحد أفلام هوليوود، فربما نعتقد أن الشركة قد اكتشفت سرا خطيرا في أحد أنظمة الذكاء الاصطناعي، أو طورت نموذجا خارقا على وشك تدمير البشرية، ولهذا قررت التخلص من فريق مخاطر الذكاء الاصطناعي، لكننا لسنا داخل أحد أفلام هوليوود، وربما يرجع الأمر في النهاية إلى سام ألتمان نفسه، ومدى قوته التي فرضها على الشركة خلال الفترة الماضية.
أشارت عدة مصادر من داخل الشركة أن هؤلاء الموظفين فقدوا ثقتهم في سام ألتمان، الرئيس التنفيذي للشركة، وفي أسلوب قيادته، وهذا ما أوضحه ليكه في منشوره على منصة إكس حول سبب استقالته قائلا "كنت أختلف مع إدارة أوبن إيه آي حول أولويات الشركة الجوهرية منذ فترة طويلة، إلى أن وصلنا أخيرا إلى نهاية الطريق".
لكي نحاول فهم أسباب ما حدث، علينا العودة بالزمن قليلا، تحديدا إلى شهر نوفمبر/تشرين الثاني الماضي، وذلك عندما حاول إيليا سوتسكيفر، بالتعاون مع مجلس إدارة الشركة، طرد سام ألتمان نفسه، حينها ذكر المشاركون في هذا الانقلاب أن "ألتمان لم يكن صريحا باستمرار في تواصله مع مجلس الإدارة"، بمعنى أنهم لا يثقون به، ولذا قرروا التصرف سريعا والتخلص منه.
لكن المشكلة بدأت تزداد تعقيدا يوما تلو الآخر، وذكرت صحيفة وول ستريت جورنال وغيرها من وسائل الإعلام أن سوتسكيفر وجه تركيزه على ضمان عدم إلحاق الذكاء الاصطناعي أي أذى بالبشر، بينما حرص آخرون، بمن فيهم ألتمان، على المضي قدما في تطوير التكنولوجيا الجديدة، وهذا قد يوضح لنا طريقة تفكير ألتمان في توجيه مسار الشركة.
المشكلة حدثت عندما لم يسقط سام ألتمان بهذه السهولة، إذ أثارت الإطاحة به موجة من الاستقالات، أو التهديد بالاستقالة، بما في ذلك رسالة مفتوحة موقعة من كافة موظفي الشركة تقريبا، وضجة من المستثمرين، بمن فيهم شركة مايكروسوفت، وهدد ألتمان وحليفه جريج بروكمان، رئيس الشركة وأحد مؤسسيها، بأنهما سيصطحبان أفضل كفاءات الشركة وينتقلان إلى مايكروسوفت، مما يعني تدمير أوبن إيه آي فعليا، إذا لم يُعاد ألتمان إلى منصبه، وفي مواجهة ذلك التهديد، استسلم مجلس الإدارة.
في غضون أسبوع، عاد ألتمان إلى منصبه في "أوبن إيه آي" منتصرا، وخرج أعضاء مجلس الإدارة هيلين تونر وتاشا ماكولي وإيليا سوتسكيفر، الذين صوتوا على الإطاحة بألتمان، وبقي سوتسكيفر حينها ضمن الموظفين ولكن لم يعد عضوا في مجلس الإدارة.
حينها عاد ألتمان أقوى من ذي قبل، وبأعضاء مجلس إدارة جدد أكثر تأييدا وأكثر دعما، وامتلك حرية أكبر في إدارة الشركة.
ربما كشف رد فعل ألتمان على إقالته شيئا ما حول شخصيته، فتهديده بتصفية شركة أوبن إيه آي ما لم يعيد مجلس الإدارة تعيينه، وإصراره على حشد أعضاء جدد في المجلس يميلون لصالحه، يظهران إصرارا على تمسكه بالسلطة وتجنب أي رقابة أو مساءلة في المستقبل حول ما يفعله.
حتى إن بعض الموظفين السابقين وصفوه بأنه شخص مخادع يتحدث بأمور ويفعل عكسها، فمثلا يدعي ألتمان أنه يرغب في منح الأولوية للسلامة، لكنه يناقض نفسه في تصرفاته وأفعاله عبر سعيه المحموم نحو تطوير تقنيات الذكاء الاصطناعي بوتيرة متسارعة للغاية.
Third, my prior is strongly against Sam after working for him for two years at OpenAI:
1. He was always nice to me.
2. He lied to me on various occasions
3. He was deceptive, manipulative, and worse to others, including my close friends (again, only nice to me, for reasons)
— Geoffrey Irving (@geoffreyirving) November 21, 2023
على سبيل المثال، كان ألتمان يسافر في جولات خلال الفتر الماضية إلى الشرق الأوسط، ليجمع الأموال والاستثمارات الضخمة من السعودية والإمارات حتى يتمكن من تأسيس شركة جديدة لتصنيع رقائق المعالجة الخاصة بنماذج الذكاء الاصطناعي، مما سيمنحه إمدادات ضخمة من الموارد المطلوبة لتطوير الذكاء الاصطناعي العام أو الخارق، وهذا ما كان يثير قلق الموظفين المهتمين بالسلامة داخل الشركة.
التخلص من فريق مخاطر الذكاء الاصطناعي بعيدة المدى هو مجرد تأكيد آخر على سياسة الشركة ورئيسها التنفيذي نحو تطوير أقوى الأنظمة الحديثة مهما كان الثمن، فلا داعي لمنح فريق السلامة 20% من قوة الشركة الحاسوبية، وهو أهم مورد لدى أي شركة ذكاء اصطناعي، فربما تعيد الشركة توجيهها نحو عمليات التطوير الأخرى.
وهذا يمكن استنتاجه بسهولة مما ذكره جان ليكه بعد استقالته قائلا "خلال الأشهر القليلة الماضية كان فريقي يُبحر ضد التيار. كنا نعاني أحيانا من نقص الحوسبة، وكان الأمر يزداد صعوبة لإنجاز هذه الأبحاث المهمة".
Over the past few months my team has been sailing against the wind. Sometimes we were struggling for compute and it was getting harder and harder to get this crucial research done.
— Jan Leike (@janleike) May 17, 2024
وفي النهاية هذا ما أكده جان ليكه فعلا، أن ثقافة السلامة وعملياتها تراجعتا داخل الشركة أمام "المنتجات البرّاقة". بالطبع، لا نعرف ما يحمله لنا المستقبل، ولا يمكننا التوقع إن كانت الشركة ستنجح في تطوير الذكاء الاصطناعي العام أم ستفشل، لكن ما قد يصيبنا بالقلق هو ما أصاب فريق السلامة الذي تخلّصت منه "أوبن إيه آي"، وهو ببساطة أن الشركة التي تسعى لتطوير هذا الذكاء الاصطناعي الخارق لا تهتم سوى بتعظيم مكاسبها مهما كانت التحذيرات والمخاطر!
المصدر: الجزيرة
كلمات دلالية: حريات الذکاء الاصطناعی شرکة أوبن إیه آی مجلس الإدارة داخل الشرکة سام ألتمان
إقرأ أيضاً:
الذكاء الاصطناعي العام (AGI) الخطوة التالية لقطاع التكنولوجيا..ما المخاطر؟!
في ظل التسارع المذهل في تطوير تقنيات الذكاء الاصطناعي، يتطلع قادة التكنولوجيا والأعمال إلى الخطوة التالية في هذا المجال، وهي "الذكاء العام الاصطناعي" (AGI)، وهو نوع من الذكاء الاصطناعي يتمتع بقدرات إدراكية شبيهة بالبشر.
إن إيجاد طرق جديدة لضمان عدم عمل هذه الآلة -التي تتمتع بمستوى ذكاء البشر نفسه- ضد مصالح البشر،هدف مهم يسعى إليه الباحثون، ويصبح من الضروري أن تتكاتف الجهود، في الوصول إليه.
وأصدر باحثون في شركة "جوجل ديب مايند" التابعة لجوجل ورقة بحثية جديدة، مكونة من أكثر من 100 صفحة، تشرح طريقة تطوير الذكاء العام الاصطناعي بأمان. بحسب تقرير لموقع "ArsTechnica" المتخصص في أخبار التكنولوجيا.
اقرأ أيضاً..الذكاء الاصطناعي.. من منظور إيجابي
تشير تقديرات "ديب مايند" إلى إمكانية ظهور AGI خلال السنوات الخمس القادمة، وتحديدًا بحلول عام 2030، مما يستدعي تعاونًا دوليًا عاجلًا لوضع الأطر القانونية والأخلاقية.
لا يملك البشر حتى الآن وسيلة لمنع خروج الذكاء العام الاصطناعي -في حالة الوصول إليه- عن السيطرة، لكن الباحثين في شركة "جوجل ديب مايند" التابعة لجوجل يعملون على هذه المشكلة.
كشف الباحثون عن أربعة مخاطر رئيسية قد تنجم عن تطوير الذكاء الاصطناعي العام (AGI) الشبيه بذكاء الإنسان وقد يؤدي إلى "أضرار جسيمة"، لأجل هذا سعوا إلى فهم مخاطره.
أبرز المخاطر
حدد الباحثون أربعة أنواع محتملة من مخاطر الذكاء العام الاصطناعي، وقدموا اقتراحات حول طرق التخفيف من هذه المخاطر.
وصنّف فريق "ديب مايند" النتائج السلبية للذكاء العام الاصطناعي على أنها سوء الاستخدام، والانحراف، والأخطاء، والمخاطر الهيكلية. وقد ناقش البحث سوء الاستخدام والانحراف بإسهاب، وتناول الأخيران بإيجاز.
المشكلة المحتملة الأولى، هي سوء الاستخدام، بحيث تتشابه بشكل أساسي مع مخاطر الذكاء الاصطناعي الحالية. ومع ذلك، ولأن الذكاء العام الاصطناعي سيكون أقوى بحكم تعريفه، فإن الضرر الذي قد يُلحقه سيكون أكبر بكثير.
وقد يُسيء أي شخص لديه إمكانية الوصول إلى الذكاء العام الاصطناعي استخدام النظام لإلحاق الضرر، على سبيل المثال، من خلال مطالبة النظام بتحديد ثغرات واستغلالها، أو إنشاء فيروس مُصمَّم يمكن استخدامه كسلاح بيولوجي.
قال فريق "ديب مايند" إنه سيتعين على الشركات التي تُطور الذكاء العام الاصطناعي إجراء اختبارات مكثفة ووضع بروتوكولات سلامة قوية لما بعد التدريب. بعبارة أخرى، حواجز أمان معززة للذكاء الاصطناعي.
ويقترح الفريق أيضًا ابتكار طريقة لكبح القدرات الخطيرة تمامًا، تُسمى أحيانًا "إلغاء التعلم" (unlearning)، ولكن من غير الواضح ما إذا كان ذلك ممكنًا من دون تقييد قدرات النماذج بشكل كبير.
أما مشكلة "الانحراف" فهي ليست محل قلق حاليًا مع الذكاء الاصطناعي التوليدي في صورته الحالية. لكن مع الذكاء العام الاصطناعي قد يختلف الأمر.
أخبار ذات صلةتُصور مشكلة "الانحراف" هذه كآلة متمردة تجاوزت القيود التي فرضها عليها مصمموها، كما هو الحال في فيلم "ترميناترو". وبشكل أكثر تحديدًا، يتخذ الذكاء الاصطناعي إجراءات يعلم أنها لا تتماشى مع ما يقصده المطور.
وقالت "ديب مايند" إن معيارها للانحراف في ما يتعلق بالذكاء العام الاصطناعي أكثر تقدمًا من مجرد الخداع أو التخطيط.
حلول مقترحة
لتجنب ذلك، تقترح "ديب مايند" على المطورين استخدام تقنيات مثل الإشراف المُعزز، حيث تتحقق نسختان من الذكاء الاصطناعي من مخرجات بعضهما البعض، لإنشاء أنظمة قوية من لا يُحتمل أن تنحرف عن مسارها.
وإذا فشل ذلك، تقترح "ديب مايند" إجراء اختبارات ضغط ومراقبة مكثفة لاكتشاف أي مؤشر على أن الذكاء الاصطناعي قد يبدأ في التمرد ضدنا.
وقالت إن إبقاء الذكاء الاصطناعي العام في بيئة افتراضية آمنة للغاية وإشراف بشري مباشر يمكن أن يُساعد في التخفيف من حدة المشكلات الناجمة عن الانحراف.
الأخطاء
من ناحية أخرى، إذا لم يكن الذكاء الاصطناعي يعلم أن مخرجاته ستكون ضارة، ولم يكن المشغل البشري يقصد ذلك، فهذا "خطأ". ويحدث الكثير من هذه الأخطاء مع أنظمة الذكاء الاصطناعي الحالية.مع ذلك، قد تكون هذه المشكلة أصعب مع الذكاء العام الاصطناعي.
تشير "ديب مايند" إلى أن الجيوش قد تنشر الذكاء العام الاصطناعي بسبب "الضغط التنافسي"، لكن هذه الأنظمة قد ترتكب أخطاء جسيمة لأنها ستُكلف بوظائف أكثر تعقيدًا بكثير من الذكاء الاصطناعي الحالي.
توصي الورقة بعدد من الإجراءات الوقائية، للحد من الأخطاء. باختصار، يتلخص الأمر في عدم السماح للذكاء العام الاصطناعي بأن يصبح قويًا جدًا في المقام الأول.
وتدعو "ديب مايند" إلى نشر الذكاء العام الاصطناعي تدريجيًا والحد من صلاحياته، وتمرير أوامر الذكاء العام الاصطناعي عبر نظام حماية يضمن أن تكون آمنة قبل تنفيذها.
مخاطر هيكلية
تُعرف "ديب مايند" المخاطر الهيكلية على أنها عواقب غير مقصودة، وإن كانت حقيقية، للأنظمة متعددة الوكلاء التي تُسهم في تعقيد حياتنا البشرية.
على سبيل المثال، قد يُنتج الذكاء العام الاصطناعي معلومات مُضلّلة تبدو مُقنعة لدرجة أننا لم نعد نعرف بمن أو بما نثق. كما تُثير الورقة البحثية احتمالية أن يُراكِم الذكاء العام الاصطناعي سيطرة متزايدة على الأنظمة الاقتصادية والسياسية، ربما من خلال وضع مخططات تعريفات جمركية مُفرطة.
وقد تؤدي هذه المخاطر الهيكلية إلى أن نجد في يومٍ ما أن الآلات هي المُسيطرة بدلًا منّا.
وتُعتبر هذه الفئة من المخاطر أيضًا الأصعب في الحماية منها، لأنها ستعتمد على طريقة عمل الأفراد والبنية التحتية والمؤسسات في المستقبل.
لضمان أن يكون الذكاء الاصطناعي العام أداة لخدمة البشرية، لا مصدرًا لتهديدها..كما تشير "ديب مايند"، فإن التقدم نحو AGI قد يكون أسرع مما نتخيل، ما يجعل من وضع الحواجز الأخلاقية والتقنية ضرورة عاجلة لا تحتمل التأجيل.
لمياء الصديق(أبوظبي)