الذكاء الاصطناعي العام (AGI) الخطوة التالية لقطاع التكنولوجيا..ما المخاطر؟!
تاريخ النشر: 7th, April 2025 GMT
في ظل التسارع المذهل في تطوير تقنيات الذكاء الاصطناعي، يتطلع قادة التكنولوجيا والأعمال إلى الخطوة التالية في هذا المجال، وهي "الذكاء العام الاصطناعي" (AGI)، وهو نوع من الذكاء الاصطناعي يتمتع بقدرات إدراكية شبيهة بالبشر.
إن إيجاد طرق جديدة لضمان عدم عمل هذه الآلة -التي تتمتع بمستوى ذكاء البشر نفسه- ضد مصالح البشر،هدف مهم يسعى إليه الباحثون، ويصبح من الضروري أن تتكاتف الجهود، في الوصول إليه.
وأصدر باحثون في شركة "جوجل ديب مايند" التابعة لجوجل ورقة بحثية جديدة، مكونة من أكثر من 100 صفحة، تشرح طريقة تطوير الذكاء العام الاصطناعي بأمان. بحسب تقرير لموقع "ArsTechnica" المتخصص في أخبار التكنولوجيا.
اقرأ أيضاً..الذكاء الاصطناعي.. من منظور إيجابي
تشير تقديرات "ديب مايند" إلى إمكانية ظهور AGI خلال السنوات الخمس القادمة، وتحديدًا بحلول عام 2030، مما يستدعي تعاونًا دوليًا عاجلًا لوضع الأطر القانونية والأخلاقية.
لا يملك البشر حتى الآن وسيلة لمنع خروج الذكاء العام الاصطناعي -في حالة الوصول إليه- عن السيطرة، لكن الباحثين في شركة "جوجل ديب مايند" التابعة لجوجل يعملون على هذه المشكلة.
كشف الباحثون عن أربعة مخاطر رئيسية قد تنجم عن تطوير الذكاء الاصطناعي العام (AGI) الشبيه بذكاء الإنسان وقد يؤدي إلى "أضرار جسيمة"، لأجل هذا سعوا إلى فهم مخاطره.
أبرز المخاطر
حدد الباحثون أربعة أنواع محتملة من مخاطر الذكاء العام الاصطناعي، وقدموا اقتراحات حول طرق التخفيف من هذه المخاطر.
وصنّف فريق "ديب مايند" النتائج السلبية للذكاء العام الاصطناعي على أنها سوء الاستخدام، والانحراف، والأخطاء، والمخاطر الهيكلية. وقد ناقش البحث سوء الاستخدام والانحراف بإسهاب، وتناول الأخيران بإيجاز.
المشكلة المحتملة الأولى، هي سوء الاستخدام، بحيث تتشابه بشكل أساسي مع مخاطر الذكاء الاصطناعي الحالية. ومع ذلك، ولأن الذكاء العام الاصطناعي سيكون أقوى بحكم تعريفه، فإن الضرر الذي قد يُلحقه سيكون أكبر بكثير.
وقد يُسيء أي شخص لديه إمكانية الوصول إلى الذكاء العام الاصطناعي استخدام النظام لإلحاق الضرر، على سبيل المثال، من خلال مطالبة النظام بتحديد ثغرات واستغلالها، أو إنشاء فيروس مُصمَّم يمكن استخدامه كسلاح بيولوجي.
قال فريق "ديب مايند" إنه سيتعين على الشركات التي تُطور الذكاء العام الاصطناعي إجراء اختبارات مكثفة ووضع بروتوكولات سلامة قوية لما بعد التدريب. بعبارة أخرى، حواجز أمان معززة للذكاء الاصطناعي.
ويقترح الفريق أيضًا ابتكار طريقة لكبح القدرات الخطيرة تمامًا، تُسمى أحيانًا "إلغاء التعلم" (unlearning)، ولكن من غير الواضح ما إذا كان ذلك ممكنًا من دون تقييد قدرات النماذج بشكل كبير.
أما مشكلة "الانحراف" فهي ليست محل قلق حاليًا مع الذكاء الاصطناعي التوليدي في صورته الحالية. لكن مع الذكاء العام الاصطناعي قد يختلف الأمر.
أخبار ذات صلةتُصور مشكلة "الانحراف" هذه كآلة متمردة تجاوزت القيود التي فرضها عليها مصمموها، كما هو الحال في فيلم "ترميناترو". وبشكل أكثر تحديدًا، يتخذ الذكاء الاصطناعي إجراءات يعلم أنها لا تتماشى مع ما يقصده المطور.
وقالت "ديب مايند" إن معيارها للانحراف في ما يتعلق بالذكاء العام الاصطناعي أكثر تقدمًا من مجرد الخداع أو التخطيط.
حلول مقترحة
لتجنب ذلك، تقترح "ديب مايند" على المطورين استخدام تقنيات مثل الإشراف المُعزز، حيث تتحقق نسختان من الذكاء الاصطناعي من مخرجات بعضهما البعض، لإنشاء أنظمة قوية من لا يُحتمل أن تنحرف عن مسارها.
وإذا فشل ذلك، تقترح "ديب مايند" إجراء اختبارات ضغط ومراقبة مكثفة لاكتشاف أي مؤشر على أن الذكاء الاصطناعي قد يبدأ في التمرد ضدنا.
وقالت إن إبقاء الذكاء الاصطناعي العام في بيئة افتراضية آمنة للغاية وإشراف بشري مباشر يمكن أن يُساعد في التخفيف من حدة المشكلات الناجمة عن الانحراف.
الأخطاء
من ناحية أخرى، إذا لم يكن الذكاء الاصطناعي يعلم أن مخرجاته ستكون ضارة، ولم يكن المشغل البشري يقصد ذلك، فهذا "خطأ". ويحدث الكثير من هذه الأخطاء مع أنظمة الذكاء الاصطناعي الحالية.مع ذلك، قد تكون هذه المشكلة أصعب مع الذكاء العام الاصطناعي.
تشير "ديب مايند" إلى أن الجيوش قد تنشر الذكاء العام الاصطناعي بسبب "الضغط التنافسي"، لكن هذه الأنظمة قد ترتكب أخطاء جسيمة لأنها ستُكلف بوظائف أكثر تعقيدًا بكثير من الذكاء الاصطناعي الحالي.
توصي الورقة بعدد من الإجراءات الوقائية، للحد من الأخطاء. باختصار، يتلخص الأمر في عدم السماح للذكاء العام الاصطناعي بأن يصبح قويًا جدًا في المقام الأول.
وتدعو "ديب مايند" إلى نشر الذكاء العام الاصطناعي تدريجيًا والحد من صلاحياته، وتمرير أوامر الذكاء العام الاصطناعي عبر نظام حماية يضمن أن تكون آمنة قبل تنفيذها.
مخاطر هيكلية
تُعرف "ديب مايند" المخاطر الهيكلية على أنها عواقب غير مقصودة، وإن كانت حقيقية، للأنظمة متعددة الوكلاء التي تُسهم في تعقيد حياتنا البشرية.
على سبيل المثال، قد يُنتج الذكاء العام الاصطناعي معلومات مُضلّلة تبدو مُقنعة لدرجة أننا لم نعد نعرف بمن أو بما نثق. كما تُثير الورقة البحثية احتمالية أن يُراكِم الذكاء العام الاصطناعي سيطرة متزايدة على الأنظمة الاقتصادية والسياسية، ربما من خلال وضع مخططات تعريفات جمركية مُفرطة.
وقد تؤدي هذه المخاطر الهيكلية إلى أن نجد في يومٍ ما أن الآلات هي المُسيطرة بدلًا منّا.
وتُعتبر هذه الفئة من المخاطر أيضًا الأصعب في الحماية منها، لأنها ستعتمد على طريقة عمل الأفراد والبنية التحتية والمؤسسات في المستقبل.
لضمان أن يكون الذكاء الاصطناعي العام أداة لخدمة البشرية، لا مصدرًا لتهديدها..كما تشير "ديب مايند"، فإن التقدم نحو AGI قد يكون أسرع مما نتخيل، ما يجعل من وضع الحواجز الأخلاقية والتقنية ضرورة عاجلة لا تحتمل التأجيل.
لمياء الصديق(أبوظبي)
المصدر: صحيفة الاتحاد
كلمات دلالية: التكنولوجيا المتقدمة تكنولوجيا الذكاء الاصطناعي الذکاء الاصطناعی العام الذکاء العام الاصطناعی دیب مایند
إقرأ أيضاً:
الصين ترد على رسوم ترامب بأغاني وفيديوهات من إنتاج الذكاء الاصطناعي
في رد غير تقليدي على قرارات الرئيس الأمريكي دونالد ترامب الأخيرة بفرض رسوم جمركية جديدة تهدد الاقتصاد العالمي، لجأت وسائل الإعلام الحكومية الصينية إلى أسلوب ساخر ومبتكر يعتمد على الذكاء الاصطناعي لانتقاد السياسة التجارية الأمريكية.
أغنية ساخرة بالذكاء الاصطناعيفي 3 أبريل، نشرت شبكة CGTN الصينية فيديو موسيقي مدته دقيقتان و42 ثانية بعنوان:“Look What You Taxed Us Through (An AI-Generated Song. A Life-Choking Reality)”، الأغنية التي تولدها الذكاء الاصطناعي تسخر من الرسوم الجمركية الأمريكية عبر كلمات تغنى بصوت أنثوي بينما تعرض لقطات للرئيس ترامب.
ومن بين كلمات الأغنية:"أسعار البقالة تكلف كلية، والبنزين رئة. صفقاتك؟ مجرد هواء ساخن من لسانك!"
This is the story of T.A.R.I.F.F., an #AIGC sci-fi thriller about the relentless weaponization of #Tariffs by the United States, and the psychological journey of a humanoid????️ towards its eventual self-destruction. Please watch: pic.twitter.com/JkA0JSLmFI
— China Xinhua News (@XHNews) April 4, 2025يختتم الفيديو بعرض اقتباسات من تقارير صادرة عن "Yale Budget Lab" و"الإيكونوميست" تنتقد بشدة سياسات ترامب التجارية، وتظهر كلمات الأغنية باللغتين الإنجليزية والصينية وكأنها موجهة مباشرة للرئيس الأمريكي من وجهة نظر المواطن الأمريكي المتضرر.
ووصفت CGTN الفيديو على موقعها بـأنه:"تحذير: المقطع من إنتاج الذكاء الاصطناعي، أما أزمة الديون؟ فهي من صنع الإنسان بالكامل".
وفي خطوة مشابهة، أطلقت وكالة أنباء الصين الرسمية شينخوا، عبر منصتها الإنجليزية "New China TV"، فيلماً قصيراً بعنوان “T.A.R.I.F.F".
يجسد الفيلم الذي يمتد لثلاث دقائق و18 ثانية روبوتاً ذكياً يدعى:"Technical Artificial Robot for International Fiscal Functions"أو "روبوت الذكاء الصناعي الفني للوظائف المالية الدولية".
في الفيلم، يتم تشغيل الروبوت بواسطة مسؤول أمريكي يُدعى "د. مالوري" ويبدأ مهمته في فرض رسوم على الواردات الأجنبية.
في البداية، تأتي النتائج إيجابية، لكن حين يُطلب منه "تسريع الأداء"، يبدأ بتطبيق رسوم "عدوانية"، ما يؤدي إلى ارتفاع معدلات البطالة وتكاليف المعيشة، وتفاقم الأزمات التجارية.
في لحظة ذروة درامية، يُدرك الروبوت أنه أصبح أداة لتدمير الاقتصاد الأمريكي ذاته، فيقرر تدمير نفسه وسحب "د. مالوري" معه، في مشهد رمزي يشير إلى عواقب استخدام الضرائب كسلاح اقتصادي.
فيديو ثالث على أنغام "Imagine" و"We Are the World"في ذات اليوم، نشرت وزارة الخارجية الصينية فيديو مركباً مزيجاً من صور حقيقية وأخرى مُولدة بالذكاء الاصطناعي، على أنغام أغنيتي "Imagine" لجون لينون و"We Are the World".
يسأل الفيديو: "أي نوع من العالم تريد أن تعيش فيه؟"، مقدمًا مقارنة بين عالم تسوده "الطمع والرسوم" وآخر يُبشر بـ"الازدهار المشترك والتضامن العالمي".
خلفيات سياسيةتأتي هذه الإنتاجات في ظل التصعيد الأمريكي الأخير، حيث أعلن ترامب عن فرض رسوم جديدة بنسبة 34%، تضاف إلى رسوم سابقة بلغت 20%.
وردت الصين على لسان مسؤوليها بأنها "جاهزة للمواجهة حتى النهاية"، سواء كانت حرب رسوم أو تجارة أو حتى مواجهة أوسع.
الذكاء الاصطناعي كأداة للدعاية السياسيةتظهر هذه الحملات كيف تستخدم الصين الذكاء الاصطناعي ليس فقط في الابتكار التكنولوجي، بل أيضًا كأداة ناعمة للدعاية السياسية الدولية، بأسلوب يمزج بين الترفيه والرسائل العميقة.
وتبرز هذه الفيديوهات اتجاهاً متصاعداً نحو استخدام تقنيات الذكاء الاصطناعي في إنتاج محتوى سياسي هجومي وساخر.