تقرير يبرز خطورة الذكاء الاصطناعي ويحذر من تهديد انقراض البشر
تاريخ النشر: 13th, March 2024 GMT
رسم تقرير جديد، صدر بتكليف من وزارة الخارجية الأميركية، صورة مثيرة للقلق، للمخاطر الكارثية التي قد يتسبب بها الذكاء الاصطناعي سريع التطور على البشرية والأمن العالمي، محذراً من أنه قد يتسبب في انقراض البشر.
واستندت نتائج التقرير إلى مقابلات مع أكثر من 200 شخص على مدار أكثر من عام، بمن في ذلك كبار المسؤولين التنفيذيين من شركات الذكاء الاصطناعي الرائدة، وباحثون في مجال الأمن السيبراني، وخبراء أسلحة الدمار الشامل، ومسؤولو الأمن القومي داخل الحكومة.
ويشير التقرير، الذي صدر هذا الأسبوع من قِبل شركة «غلادستون» للذكاء الاصطناعي، بشكل قاطع إلى أن أنظمة الذكاء الاصطناعي الأكثر تقدماً يمكن، في أسوأ الحالات، «أن تشكل تهديداً خطيراً يتعلق بانقراض الجنس البشري».
وقال التقرير إن أنظمة الذكاء الاصطناعي الأكثر تقدماً يمكن استخدامها أسلحةً لإحداث أضرار لا يمكن إصلاحها، كما أن هناك مخاوف خاصة داخل مختبرات الذكاء الاصطناعي من أن العلماء أنفسهم قد «يفقدون السيطرة» في مرحلةٍ ما على هذه الأنظمة أثناء تطويرها، الأمر الذي قد تنتج عنه «عواقب مدمّرة محتملة على الأمن العالمي».
وأضاف التقرير: «إن صعود الذكاء الاصطناعي قد يزعزع استقرار الأمن العالمي بطرق تُذكّرنا بفترة ظهور الأسلحة النووية. هناك مخاوف أيضاً من احتمالية حدوث (سباق تسلح) بالذكاء الاصطناعي، الأمر الذي قد يتسبب في حوادث مميتة وعواقب وخيمة بحجم العواقب الناتجة عن استخدام أسلحة الدمار الشامل».
ولفت التقرير إلى أن الضغوط التنافسية تدفع الشركات إلى تسريع تطوير تقنيات الذكاء الاصطناعي «على حساب السلامة والأمن»، مما يزيد احتمال «سرقة» أنظمة الذكاء الاصطناعي الأكثر تقدماً، و«استخدامها أسلحةً» ضد الولايات المتحدة.
وأضاف: «وتشير مجموعة متزايدة من الأدلة إلى أنه فوق عتبة معينة من الإمكانات والقدرات، من المحتمل أن تصبح أنظمة الذكاء الاصطناعي خارجة عن السيطرة».
ومنذ ما يقرب من عام، استقال جيفري هينتون، المعروف باسم «الأب الروحي للذكاء الاصطناعي»، من وظيفته في شركة «غوغل»، وأطلق صافرة الإنذار بشأن التكنولوجيا التي ساعد في تطويرها. وقال هينتون إن هناك فرصة بنسبة 10 في المائة بأن يؤدي الذكاء الاصطناعي إلى انقراض الإنسان، خلال العقود الثلاثة المقبلة.
ووقّع هينتون وعشرات من قادة صناعة الذكاء الاصطناعي والأكاديميين وغيرهم على بيان، في يونيو (حزيران) الماضي، جاء فيه أن «التخفيف من خطر الانقراض بسبب الذكاء الاصطناعي يجب أن يكون أولوية عالمية».
المصدر: عين ليبيا
كلمات دلالية: الذكاء الاصطناعي انقراض البشر سباق التسلح بالذكاء الاصطناعي غوغل أنظمة الذکاء الاصطناعی
إقرأ أيضاً:
لماذا كتبتُ بيان شفافية حول الذكاء الاصطناعي لكتابي؟
«من أين تجد الوقت؟» - لسنوات طويلة، عندما كنتُ أُعلن لأصدقائي عن صدور كتاب جديد لي، كنتُ أستقبل هذا السؤال كوسام فخر.
خلال الأشهر الماضية، أثناء الترويج لكتابي الجديد عن الذكاء الاصطناعي «إلهيّ الملامح* (God-Like)، حاولتُ ألّا أسمع في الكلمات ذاتها نبرة اتهام خفيّة: «من أين تجد الوقت؟» -أي أنّك لا بدّ استعنتَ بـ ChatGPT، أليس كذلك؟
الواقع أنّ مقاومة المساعدة من الذكاء الاصطناعي أصبحت أصعب فأصعب. مُعالج الكلمات الذي أستخدمه صار يعرض عليّ صياغة الفقرة التالية، أو تنقيح التي سبقتها.
عملي في مؤسسة بحثيّة تستكشف آثار الذكاء الاصطناعي في سوق العمل البريطاني يجعلني أقرأ يوميا عن تبعات هذه الثورة التقنيّة على كل مهنة تقريبا. وفي الصناعات الإبداعيّة، يَظهر الأثر بالفعل بصورة هائلة.
لهذا السبب، وبعد أن انتهيتُ من الكتاب، أدركتُ أنّ أصدقائي كانوا مُحقّين: يجب أن أواجه السؤال الحتمي مباشرة وأُقدّم إفصاحا كاملا. احتجتُ إلى «بيان شفافية حول الذكاء الاصطناعي» يُطبع في صدر كتابي.
بحثتُ في الإنترنت متوقعا أن أجد نموذجا جاهزا؛ فلم أجد شيئا. فكان عليّ أن أضع قالبا بنفسي. قرّرتُ أن يشمل الإفصاح أربع نقاط رئيسيّة:
1- هل وُلد أي نصّ باستخدام الذكاء الاصطناعي؟
2- هل جرى تحسين أي نصّ عبر الذكاء الاصطناعي؟ - مثل اقتراحات «غرامرلي» لإعادة ترتيب الجمل.
3- هل اقترح الذكاء الاصطناعي أي نص؟ ـ على غرار طلب مخطَّط من ChatGPT أو استكمال فقرة استنادا إلى ما سبق.
4- هل صُحِّح النصّ بواسطة الذكاء الاصطناعي؟ وإذا كان كذلك، فهل قُبلت الاقتراحات اللغوية أم رُفضت بعد مراجعة بشرية؟
بالنسبة لكتابي، جاءت الإجابات: 1) لا، 2) لا، 3) لا، 4) نعم – مع اتخاذ قرارات يدوية بشأن ما أقبله أو أرفضه من تصحيحات إملائية ونحويّة. أعترف بأنّ هذا النموذج ليس كاملا، لكنّي أقدّمه أساسا يمكن تطويره، على غرار رخصة «كرييتف كومونز» في عالم الحقوق الرقمية.
أردتُ أن أضمّنه لتعزيز نقاش صريح حول الأدوات التي يستخدمها الناس، لا سيّما أنّ الأبحاث تبيّن أنّ كثيرا من استعمالات الذكاء الاصطناعي تتمّ خِفية. ومع تصاعد ضغط العمل، يخشى البعض إبلاغ رؤسائهم أو زملائهم أنّهم يعتمدون أدوات تُسرِّع بعض المهام وتمنحهم فسحة للتنفّس.. وربّما وقتا للإبداع. فإذا كان ما يدّعيه إيلون ماسك صحيحًا ـ بأنّ الذكاء الاصطناعي سيُحلّ «مشكلة العمل» ويُحرّرنا لنزدهر ونبدع ـ فنحن بحاجة إلى الشفافية منذ الآن.
لكن، بصفتي كاتبا يعتزّ بمهنته، أردتُ كذلك بيان الشفافية بسبب لقاء ترك في نفسي قلقا عميقا. اجتمعتُ مع شخص يعمل لدى جهة تنظّم ورشا وملتقيات للكتابة، وسألتُه: كيف تفكّرون في التعامل مع شبح الكتابة التوليدية؟ فأجاب: «أوه، لا نرى أنّ علينا القلق من ذلك».
وأنا أعتقد أنّنا بحاجة ماسّة للقلق. إلى أن نمتلك آلية حقيقية لاختبار أصل النص ـ وهو أمر بالغ الصعوبة ـ نحتاج على الأقل وسيلة تُمكّن الكتّاب من بناء الثقة في أعمالهم بالإفصاح عن الأدوات التي استخدموها.
ولكي أكون واضحا: هذه الأدوات مدهشة ويمكن أن تُصبح شرارة شراكة إبداعيّة. ففي أغسطس 2021 نشرت فاوهيـني فـارا مقالة في مجلة The Believer كتبتها بمساعدة نسخة مبكرة من ChatGPT، فجاءت قطعة عميقة ومبتكرة عن وفاة شقيقتها. بيان الشفافية الخاص بها سيختلف عن بياني، لكن ذلك لا ينتقص من عملها، بل يفتح أفقا لإمكانات خَلّاقة جديدة.
عندما نستثمر وقتا في قراءة كتاب، فإنّنا ندخل علاقة ثقة مع الكاتب. والحقيقة أنّ قلّة من أصحاب شركات التقنية تلاعبوا بفعل بروميثيوس ومنحوا هدية اللغة للآلات مجانًا، وهو ما قوّض تلك الثقة التاريخيّة. لا أشك أنّ ذكاء اصطناعيا سيؤلّف عمّا قريب كتابًا «رائعًا» – لكن هل سيهتمّ أحد؟ سيكون التصفيق فاتِرًا. سيُشبه ألماسة مختبرية بلا شوائب: حيلة مُتقنة، نعم، لكنها ليست فنا.
في هذا الواقع الجديد، يقع على عاتق الكُتّاب أن يُثَبّتوا ثقة القارئ في «أصالة جواهرهم» عبر الشفافية حيال الكيفيّة التي نُقّبت بها تلك الجواهر. تجاهُل السؤال بدعوى أنّ الكتابة حِرفة نبيلة لا تستدعي إجراءات ثقة هو، برأيي، سذاجة خالصة.
كما أشرح في كتابي، فإنّ الذكاء الاصطناعي ـ شأنه شأن القنبلة الذرية ـ ابتكار بشري فائق القوّة، لا خيار لنا إلا تعلّم التعايش معه. أن نكون صريحين بما في ترسانتنا خطوة صغيرة لتجنّب سباق تسلّح أدبيّ لا يجرّ إلا إلى الارتياب والانقسام.
كيستر بروين كاتب ورئيس قسم الاتصالات في معهد مستقبل العمل.
عن الجارديان البريطانية
تم ترجمة النص باستخدام الذكاء الاصطناعي