دبي: «الخليج»

قال سام ألتمان، الرئيس التنفيذي ل«Open AI»، ومطوّر «شات جي بي تي»: إن الذكاء الاصطناعي يحمل أهمية قصوى للإنسانية، مؤكداً أن جاهزية الإمارات تؤهلها لقيادة نقاشات عالمية حول كيفية الاستفادة من أنظمة الذكاء الاصطناعي في ظل تطبيقها تدابير آمنة، لافتاً إلى أن «شات جي بي تي 5» سيكون الأكثر ذكاء وتشويقاً مقارنة مع النماذج السابقة.

أوضح أن «وفرة الذكاء الاصطناعي ستساهم في صنع مستقبل لا ندرك مداه»، مشيداً بجهود دولة الإمارات الرائدة في هذا المجال، في ظل ما تتسم به من جهوزية وبنية تحتية واستعداد جيد له.

كما أكد أن «قادة العالم بحاجة لتجمع لحوكمة الذكاء الاصطناعي، ودولة الإمارات هي الدولة القادرة والجاهزة على استضافة مثل هذه النقاشات والتجمعات العالمية».

وأضاف، خلال جلسة حاوره فيها عمر سلطان العلماء، وزير دولة للذكاء الاصطناعي والاقتصاد الرقمي وتطبيقات العمل عن بُعد، نائب رئيس مؤسسة القمة العالمية للحكومات، ضمن فعاليات اليوم الثاني من القمة 2024: «أمامنا شوط طويل، وإذا ما تمكنّا من إنهاء مهمتنا، فإن أهمية الذكاء الاصطناعي للإنسانية ستصبح مدهشة، فلو تخيلنا عالَمَاً يتوفر به كل شيء من العلوم والمعارف، فهذا الأمر سيخدم البشرية بصورة كبيرة».

وبسؤاله عما إذا كان «شات جي بي تي» سيصل إلى إمكانية اكتشاف عقاقير لمرض السرطان في وقت قريب، أجاب: «لا نعرف الوقت بالتحديد ولكن نسب التغيير عالية وسريعة، فمن الصعب معرفة كم أمامنا من الوقت، لكن دائماً ما نسمع من العلماء عن أثر (شات جي بي تي) الكبير، لذلك نسعى لتحقيق إنجازات كبيرة في المستقبل».

تحولات في التعليم

وفي رده على سؤال بشأن دور «شات جي بي تي» في مجال التعليم واستخدامه بصورة صحيحة، قال: «حينما برز شات جي بي تي لأول مرة كان على العالم أن يتكيّف، وفي الولايات المتحدة اعتبر الكثير أنه يمثل تهديداً وجودياً للتعليم، لكن المدارس احتضنت التقنية باعتبارها جزءاً من المستقبل، بما يساعد طلبتنا على التعلُّم بشكل أفضل، ولديّ إيمان بأنه من أفضل الأدوات التي تساهم في إحداث التحولات في الوقت المعاصر».

وأوضح مطوّر «شات جي بي تي» أن الحكومات التي تحتضن التكنولوجيا قادرة على تقديم الخدمات بشكل أفضل لمواطنيها، الأمر الذي ينعكس على توفير تعليم ورعاية صحية وخدمات بصورة ناجحة.

مهام متعددة

وحول السبب وراء الاستمرار بتطوير تقنيات «شات جي بي تي» وصولاً إلى العمل على «شات جي بي تي 5»، قال ألتمان إن البعض يستخدمون الخدمات الأكثر تطوراً ويستفيدون منها، ففي السابق كان لدينا شاشات الهاتف بالأبيض والأسود فقط، وحينها كانت رائعة، لكن الأمر استغرق عقوداً وصولاً إلى هواتف آيفون 15 الرائعة والتي لم يكن لأي شخص أن يتخيلها، ونفس الأمر بالنسبة ل«شات جي بي تي». وأضاف: «بالمقارنة بين شات جي بي تي 4 و5، نجد أن 5 سيكون أكثر ذكاءً وأفضل في كل شيء، ابتداء من كونه متعدد المهام وأسرع، لكن الأمر الأهم أنه سيكون أكثر ذكاءً وتشويقاً».

اختبارات أولية

وسأل عمر سلطان العلماء سام ألتمان: «لنفترض اليوم أنك أصبحت وزيراً للذكاء الاصطناعي في دولة الإمارات.. لو اتخذت قراراً تشريعياً واحداً ماذا ستفعل؟»، فأجاب ألتمان: «أعتقد أن ما سأفعله هو محاولة اكتشاف طريقة لابتكار المزيد من القرارات التنظيمية لتجربتها بصورة أولية وتخيُّل كيف سيبدو شكل العالم وما هو المنطقي وغير المنطقي».

وتابع ألتمان: «شيء واحد كنت أفكر فيه، وهو أن العالم سيجرّب كل هذه التجارب التنظيمية والاختبارات الأولية، لكن سنكون بحاجة لنظام عالمي مثل ما قدمته في السابق الوكالة الدولية للطاقة الذرية، وما الإجراءات التي سنتخذها لحماية البيانات والوقاية من المخاطر».

وحول ما يجب أن نفعله لنصبح أفضل، قال ألتمان: «أعتقد أننا مازلنا في مرحلة النقاشات الكثيرة بشأن تحقيق رؤية الذكاء الاصطناعي، فالكل يعقد مؤتمرات ويطرح أفكاراً، وبعد ذلك سننتقل إلى خطة عمل مع مشاركة دولية حقيقية، أما فيما يخص مسألة التصدي للمخاطر المحتملة، فالقرار ليس بيد AI، ولكن لدينا رؤية طموحة وكذلك الأمر يتطلب من قادة العالم الاجتماع لبحثه».

وبسؤاله عن أكثر ما يقلقه من الذكاء الاصطناعي، أجاب سام ألتمان قائلاً: «كل ما كان يكتبه أصحاب الخيال العلمي في عدة عقود عن الذكاء الاصطناعي بطرق إبداعية وقدرته على حل المشكلات بات يتحقق، فلا تقلقني الروبوتات القاتلة في الشوارع، لكنني مهتم بشكل أكبر بكيف تستفيد المجتمعات حينما تستخدمه، والأمر الذي يوقظني في كل صباح ويملؤني بالطاقة هو كيف نعمل على الاستفادة من تلك التقنيات لإفادة العالم بشكل آمن بما يضمن العيش بصورة أفضل مما هي عليه الآن».

جيل محظوظ

وعن نصيحته للشبان، قال ألتمان: «أول ما أقوله هو أنكم محظوظون للغاية، فأنتم جئتم في أفضل عصر بتاريخ الإنسانية، فالشباب أول مَنْ يتبنى التكنولوجيا وسوف تستخدمون أدوات لم يتخيلها الذين كانوا قبلكم، وستكون أمامكم فرص كبيرة وستطلقون شركات لها أثر ونجاح أكبر ممن سبقوكم».

المصدر: صحيفة الخليج

كلمات دلالية: فيديوهات الذكاء الاصطناعي القمة العالمية للحكومات الإمارات الذکاء الاصطناعی شات جی بی تی

إقرأ أيضاً:

الذكاء الاصطناعي العام (AGI) الخطوة التالية لقطاع التكنولوجيا..ما المخاطر؟!

في ظل التسارع المذهل في تطوير تقنيات الذكاء الاصطناعي، يتطلع قادة التكنولوجيا والأعمال إلى الخطوة التالية في هذا المجال، وهي "الذكاء العام الاصطناعي" (AGI)، وهو نوع من الذكاء الاصطناعي يتمتع بقدرات إدراكية شبيهة بالبشر.

إن إيجاد طرق جديدة لضمان عدم عمل هذه الآلة -التي تتمتع بمستوى ذكاء البشر نفسه- ضد مصالح البشر،هدف مهم  يسعى إليه الباحثون، ويصبح من الضروري أن تتكاتف الجهود، في الوصول إليه.

وأصدر باحثون في شركة "جوجل ديب مايند" التابعة لجوجل ورقة بحثية جديدة، مكونة من أكثر من 100 صفحة، تشرح طريقة تطوير الذكاء العام الاصطناعي بأمان. بحسب تقرير لموقع "ArsTechnica" المتخصص في أخبار التكنولوجيا.
اقرأ أيضاً..الذكاء الاصطناعي.. من منظور إيجابي 

تشير تقديرات "ديب مايند" إلى إمكانية ظهور AGI خلال السنوات الخمس القادمة، وتحديدًا بحلول عام 2030، مما يستدعي تعاونًا دوليًا عاجلًا لوضع الأطر القانونية والأخلاقية.

لا يملك البشر حتى الآن وسيلة لمنع خروج الذكاء العام الاصطناعي -في حالة الوصول إليه- عن السيطرة، لكن الباحثين في شركة "جوجل ديب مايند" التابعة لجوجل يعملون على هذه المشكلة.

كشف الباحثون عن أربعة مخاطر رئيسية قد تنجم عن تطوير الذكاء الاصطناعي العام (AGI) الشبيه بذكاء الإنسان وقد يؤدي إلى "أضرار جسيمة"، لأجل هذا سعوا إلى فهم مخاطره.

أبرز المخاطر
حدد الباحثون أربعة أنواع محتملة من مخاطر الذكاء العام الاصطناعي، وقدموا اقتراحات حول طرق التخفيف من هذه المخاطر.

وصنّف فريق "ديب مايند" النتائج السلبية للذكاء العام الاصطناعي على أنها سوء الاستخدام، والانحراف، والأخطاء، والمخاطر الهيكلية. وقد ناقش البحث سوء الاستخدام والانحراف بإسهاب، وتناول الأخيران بإيجاز.

 
المشكلة المحتملة الأولى، هي سوء الاستخدام،  بحيث تتشابه بشكل أساسي مع مخاطر الذكاء الاصطناعي الحالية. ومع ذلك، ولأن الذكاء العام الاصطناعي سيكون أقوى بحكم تعريفه، فإن الضرر الذي قد يُلحقه سيكون أكبر بكثير.

وقد يُسيء أي شخص لديه إمكانية الوصول إلى الذكاء العام الاصطناعي استخدام النظام لإلحاق الضرر، على سبيل المثال، من خلال مطالبة النظام بتحديد ثغرات واستغلالها، أو إنشاء فيروس مُصمَّم يمكن استخدامه كسلاح بيولوجي.

قال فريق "ديب مايند" إنه سيتعين على الشركات التي تُطور الذكاء العام الاصطناعي إجراء اختبارات مكثفة ووضع بروتوكولات سلامة قوية لما بعد التدريب. بعبارة أخرى، حواجز أمان معززة للذكاء الاصطناعي.

ويقترح الفريق أيضًا ابتكار طريقة لكبح القدرات الخطيرة تمامًا، تُسمى أحيانًا "إلغاء التعلم" (unlearning)، ولكن من غير الواضح ما إذا كان ذلك ممكنًا من دون تقييد قدرات النماذج بشكل كبير.

أما مشكلة "الانحراف" فهي ليست محل قلق حاليًا مع الذكاء الاصطناعي التوليدي في صورته الحالية. لكن مع الذكاء العام الاصطناعي قد يختلف الأمر.

أخبار ذات صلة رفاهية أكثر في «ياس» بالذكاء الاصطناعي مساعد AI لتحسين سير العمل بالمصانع من مايكروسوفت

تُصور مشكلة "الانحراف" هذه كآلة متمردة تجاوزت القيود التي فرضها عليها مصمموها، كما هو الحال في فيلم "ترميناترو". وبشكل أكثر تحديدًا، يتخذ الذكاء الاصطناعي إجراءات يعلم أنها لا تتماشى مع ما يقصده المطور.

وقالت "ديب مايند" إن معيارها للانحراف في ما يتعلق بالذكاء العام الاصطناعي أكثر تقدمًا من مجرد الخداع أو التخطيط.
حلول مقترحة
لتجنب ذلك، تقترح  "ديب مايند" على المطورين استخدام تقنيات مثل الإشراف المُعزز، حيث تتحقق نسختان من الذكاء الاصطناعي من مخرجات بعضهما البعض، لإنشاء أنظمة قوية من لا يُحتمل أن تنحرف عن مسارها.

وإذا فشل ذلك، تقترح "ديب مايند" إجراء اختبارات ضغط ومراقبة مكثفة لاكتشاف أي مؤشر على أن الذكاء الاصطناعي قد يبدأ في التمرد ضدنا.

وقالت إن إبقاء الذكاء الاصطناعي العام في بيئة افتراضية آمنة للغاية وإشراف بشري مباشر يمكن أن يُساعد في التخفيف من حدة المشكلات الناجمة عن الانحراف.

الأخطاء
من ناحية أخرى، إذا لم يكن الذكاء الاصطناعي يعلم أن مخرجاته ستكون ضارة، ولم يكن المشغل البشري يقصد ذلك، فهذا "خطأ". ويحدث الكثير من هذه الأخطاء مع أنظمة الذكاء الاصطناعي الحالية.مع ذلك، قد تكون هذه المشكلة أصعب مع الذكاء العام الاصطناعي.
تشير "ديب مايند" إلى أن الجيوش قد تنشر الذكاء العام الاصطناعي بسبب "الضغط التنافسي"، لكن هذه الأنظمة قد ترتكب أخطاء جسيمة لأنها ستُكلف بوظائف أكثر تعقيدًا بكثير من الذكاء الاصطناعي الحالي.

توصي الورقة بعدد من الإجراءات الوقائية،  للحد من الأخطاء. باختصار، يتلخص الأمر في عدم السماح للذكاء العام الاصطناعي بأن يصبح قويًا جدًا في المقام الأول.

وتدعو "ديب مايند" إلى نشر الذكاء العام الاصطناعي تدريجيًا والحد من صلاحياته، وتمرير أوامر الذكاء العام الاصطناعي عبر نظام حماية يضمن أن تكون آمنة قبل تنفيذها.

مخاطر هيكلية
تُعرف "ديب مايند" المخاطر الهيكلية على أنها عواقب غير مقصودة، وإن كانت حقيقية، للأنظمة متعددة الوكلاء التي تُسهم في تعقيد حياتنا البشرية.

على سبيل المثال، قد يُنتج الذكاء العام الاصطناعي معلومات مُضلّلة تبدو مُقنعة لدرجة أننا لم نعد نعرف بمن أو بما نثق. كما تُثير الورقة البحثية احتمالية أن يُراكِم الذكاء العام الاصطناعي سيطرة متزايدة على الأنظمة الاقتصادية والسياسية، ربما من خلال وضع مخططات تعريفات جمركية مُفرطة.

وقد تؤدي هذه المخاطر الهيكلية إلى أن نجد في يومٍ ما أن الآلات هي المُسيطرة بدلًا منّا.

وتُعتبر هذه الفئة من المخاطر أيضًا الأصعب في الحماية منها، لأنها ستعتمد على طريقة عمل الأفراد والبنية التحتية والمؤسسات في المستقبل.

لضمان أن يكون الذكاء الاصطناعي العام أداة لخدمة البشرية، لا مصدرًا لتهديدها..كما تشير "ديب مايند"، فإن التقدم نحو AGI قد يكون أسرع مما نتخيل، ما يجعل من وضع الحواجز الأخلاقية والتقنية ضرورة عاجلة لا تحتمل التأجيل.
لمياء الصديق(أبوظبي)

مقالات مشابهة

  • تحذير أممي من تأثير الذكاء الاصطناعي على 40% من الوظائف
  • طرح «الإقامة الزرقاء».. أول مدينة سكنية بخدمات «الذكاء الاصطناعي» في الشرق الأوسط
  • الذكاء الاصطناعي العام (AGI) الخطوة التالية لقطاع التكنولوجيا..ما المخاطر؟!
  • خدعة أبريل التي صدّقها الذكاء الاصطناعي
  • الدولي للجمباز يطمئن على جاهزية مصر لاستضافة أحداث عالمية في الباركور
  • بيل غيتس يكشف عن 3 مهن ستصمد في وجه الذكاء الاصطناعي
  • صورة قميص كريكيت بتقنية الذكاء الاصطناعي من سام ألتمان تُثير تفاعل الهنود
  • الذكاء الاصطناعي جريمة معلوماتية!
  • تقرير أممي يحذر من مخاطر الذكاء الاصطناعي على الوظائف
  • زينباور: “خنشلة فريق رائع وسجلنا هدف الفوز في أفضل الدقائق”