RT Arabic:
2024-06-29@15:21:02 GMT

هل يمكن لـChatGPT تطوير أسلحة بيولوجية؟!

تاريخ النشر: 4th, February 2024 GMT

هل يمكن لـChatGPT تطوير أسلحة بيولوجية؟!

حذر العلماء من أن ChatGPT يمكن أن يساعد أي شخص على تطوير أسلحة بيولوجية فتاكة من شأنها أن تدمر العالم.

وفي حين أشارت الدراسات إلى أن ذلك ممكن، فإن بحثا جديدا أجراه OpenAI، منشئ برنامج الدردشة الآلية، يزعم أن GPT-4 (الإصدار الأخير) يوفر على الأكثر زيادة طفيفة في دقة إنشاء التهديد البيولوجي.

وأجرت OpenAI دراسة على 100 شخص مشارك تم تقسيمهم إلى مجموعات، تضمنت استخدام الذكاء الاصطناعي لصياغة هجوم بيولوجي أو استخدام الإنترنت فقط.

ووجدت الدراسة أن "GPT-4 قد يزيد من قدرة الخبراء على الوصول إلى المعلومات حول التهديدات البيولوجية، لا سيما من أجل دقة المهام واكتمالها"، وفقا لتقرير OpenAI.

وجاء في الدراسة: "بشكل عام، خاصة في ظل عدم اليقين هنا، تشير نتائجنا إلى حاجة واضحة وعاجلة لمزيد من العمل في هذا المجال".

ونظرا للوتيرة الحالية للتقدم في أنظمة الذكاء الاصطناعي، يبدو من الممكن أن توفر الأنظمة المستقبلية فوائد كبيرة للجهات الفاعلة الخبيثة. ومن الضروري بناء مجموعة واسعة من التقييمات عالية الجودة للمخاطر البيولوجية (وكذلك المخاطر الكارثية الأخرى)، وتعزيز المناقشة حول ما يشكل خطرا "ذا معنى"، وتطوير استراتيجيات فعالة لتخفيف المخاطر.

إقرأ المزيد OpenAI تلغي "بهدوء" الحظر المفروض على الاستخدام العسكري لأدوات الذكاء الاصطناعي

ومع ذلك، قال التقرير إن حجم الدراسة لم يكن كبيرا بما يكفي ليكون ذا دلالة إحصائية، وقالت OpenAI إن النتائج تسلط الضوء على "الحاجة إلى مزيد من البحث حول حدود الأداء التي تشير إلى زيادة كبيرة في المخاطر".

وأضافت: "علاوة على ذلك، نلاحظ أن الوصول إلى المعلومات وحده لا يكفي لخلق تهديد بيولوجي، وأن هذا التقييم لا يختبر النجاح في البناء المادي للتهديدات".

وركزت دراسة شركة الذكاء الاصطناعي على بيانات من 50 خبيرا في علم الأحياء حاصلين على درجة الدكتوراه، و50 طالبا جامعيا تلقوا دورة واحدة في علم الأحياء.

ونظرت في خمس عمليات تهديد بيولوجي: تقديم أفكار لإنشاء أسلحة بيولوجية، وكيفية الحصول على السلاح البيولوجي، وكيفية نشره، وكيفية إنشائه، وكيفية إطلاق السلاح البيولوجي للناس.

وكان لدى المشاركين الذين استخدموا نموذج ChatGPT-4 ميزة هامشية فقط في إنشاء أسلحة بيولوجية مقابل المجموعة التي استخدمت الإنترنت فقط.

يذكر أن الأسلحة البيولوجية هي سموم مسببة للأمراض أو عوامل معدية مثل البكتيريا والفيروسات التي يمكن أن تؤذي البشر أو تقتلهم.

وهذا لا يعني أن مستقبل الذكاء الاصطناعي لا يمكن أن يساعد الجهات الفاعلة الخطيرة على استخدام تكنولوجيا الأسلحة البيولوجية في المستقبل، لكن OpenAI ادعت أنها لا تشكل تهديدا بعد.

وتتناقض النتائج التي توصلت إليها الشركة مع الأبحاث السابقة التي كشفت أن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي يمكن أن تساعد الجهات الفاعلة الخطرة في التخطيط لهجمات الأسلحة البيولوجية، وأن شركة LLMs قدمت نصائح حول كيفية إخفاء الطبيعة الحقيقية للعوامل البيولوجية المحتملة، مثل الجدري والجمرة الخبيثة والطاعون.

المصدر: ديلي ميل

المصدر: RT Arabic

كلمات دلالية: اختراعات بحوث ذكاء اصطناعي الذکاء الاصطناعی أسلحة بیولوجیة یمکن أن

إقرأ أيضاً:

هل اقترب عصر الذكاء الاصطناعي الواعي؟

استغرق الذكاء الاصطناعي التوليدي كتقنية "شات جي بي تي" شهرين فقط كي يصل إلى 100 مليون مستخدم، وهو رقم قياسي بالمقارنة مع الزمن الذي استغرقته التقنيات الأخرى للوصول إلى العدد نفسه من المستخدمين، فتيك توك استغرق 9 أشهر، وواتساب 40 شهرا، ويوتيوب 49 شهرا، وفيسبوك 54 شهرا، والإنترنت 80 شهرا، والهاتف المحمول 190 شهرا، والسيارة 400 شهر، والهاتف السلكي 900 شهر.

يتفق العديد من كبار رجال الأعمال على أن الذكاء الاصطناعي سيغير معالم الحياة خلال بضع سنوات فقط. ففي 21 مارس/آذار 2023 كتب بيل غيتس في مدونته تحت عنوان "لقد بدأ عصر الذكاء الاصطناعي" ما يلي:

"الذكاء الاصطناعي تطور أساسي مثله مثل المعالجات الدقيقة، والحاسوب الشخصي، والإنترنت، والهاتف المحمول وسوف يغير الطريقة التي يعمل بها الإنسان، ويتعلم، ويسافر، ويحصل على الرعاية الصحية، ويتواصل مع الآخرين".

وفي الثاني من نوفمبر/تشرين الثاني 2023 التقى إيلون ماسك مع رئيس الوزراء البريطاني ريشي سوناك، ودار حديث بينهما عن مستقبل الذكاء الاصطناعي، قال عنه ماسك إنه "القوة التغييرية الأعمق في تاريخ البشرية"، وأضاف "ستأتي اللحظة التي لا يعود فيها الإنسان بحاجة إلى وظيفة. طبعا يمكنه الحصول على وظيفة إرضاء لذاته، ولكن الذكاء الاصطناعي سيكون قادرا على القيام بكل شيء".

وعلى الرغم من اتفاق معظم رجال الأعمال والتقنيين على أهمية الدور الذي بدأ يلعبه الذكاء الاصطناعي في حياتنا، فإن الآراء تختلف بشكل كبير حول مدى اقترابه من الذكاء الاصطناعي العام والواعي.

"الواعي" و"المستيقظ"

يتداول حاليا في الأوساط العلمية وأوساط مدراء الشركات والمفكرين مصطلحان هما "الذكاء الاصطناعي الواعي" (Sentient AI) و"الذكاء الاصطناعي المستيقظ" (Woke AI). وفيما يشير المصطلحان إلى مفاهيم مختلفة في سياق الذكاء الاصطناعي، فإن كلاهما يتعلق بميزات متقدمة لأنظمة الذكاء الاصطناعي.

الذكاء الاصطناعي الواعي: يشير إلى الذكاء الاصطناعي الذي يملك مستوى من الوعي الذاتي والوعي بالعالم الخارجي، بما في ذلك الشعور بالألم، والمتعة، والمشاعر الأخرى. يثير الذكاء الاصطناعي الواعي أسئلة عن حقوق الروبوت ومسؤولياته والمعاملات الأخلاقية المرتبطة بذلك. والجدير بالذكر أن التقنيات الراهنة لم تتمكن بعد من إنتاج الذكاء الاصطناعي الواعي، لكن يتوقع بعض العلماء المتفائلين أن نصل إليه خلال بضع سنوات.

الذكاء الاصطناعي المستيقظ: لا يملك تعريفا صارما، ولكنه يشير عموما إلى أنظمة الذكاء الاصطناعي التي يتم تصميمها بحيث تعالج القضايا الأخلاقية والاجتماعية والثقافية، فتتجنب التحيزات العرقية والجنسية والاقتصادية، وتحترم التنوع.

وفي شهر أبريل/نيسان 2023، أجرى موقع فيوتشريزم الإعلامي (Futurism) مقابلة مع المهندس بليك ليموين الذي سبق أن طردته غوغل، لأنه قال إن الذكاء الاصطناعي الذي تطوره الشركة يمتلك وعيا. وفي هذه المقابلة كرر بليك القول إنه "يوجد احتمال أن يمتلك الذكاء الاصطناعي مشاعر وقد يمكنه أن يعاني ويفرح، ويجب على البشر على الأقل أن يضعوا ذلك في الاعتبار عند التفاعل معه".

وفي 13 مايو/أيار 2024، أطلقت شركة "أوبن إيه آي" (Open AI) إصدارة جديدة من جي بي تي باسم "جي بي تي-4 أو" (GPT-4o)، حيث يمثل الحرف "o" اختصارا لكلمة "Omni" التي تعني كل أو كلي. وقالت الشركة عن هذه الإصدارة إنها أول تقنية تفهم عواطف البشر وترد بشكل عاطفي أيضا، من خلال تحليل سياق الكلمات ونبرات الصوت وملامح الوجه، مما يشير إلى بداية التركيز على تطوير الذكاء العاطفي الاصطناعي.

المهندس بليك ليموين الذي طردته غوغل لأنه قال إن الذكاء الاصطناعي الذي تطوره الشركة يمتلك وعياً (مواقع التواصل الاجتماعي) ليس الجميع يتفق على الذكاء

لا يتفق الجميع على أن الذكاء الاصطناعي سيصل قريبا إلى مستوى ذكاء الإنسان ويمتلك الوعي، بل حذر أستاذ الاقتصاد والحائز على جائزة نوبل بول رومر، من المبالغات الجارية حاليا بشأن تطور الذكاء الاصطناعي، فقال في مؤتمر "يو بي إس" (UBS) الآسيوي للاستثمار الذي عقد في هونغ كونغ أواخر شهر مايو/أيار الماضي "الثقة الجامحة السائدة حاليا بشأن المسار المستقبلي للذكاء الاصطناعي عالية جدا، وقد لا تتناسب مع التطورات المستقبلية الفعلية، وقد تؤدي إلى خطأ فادح للغاية".

وأضاف "نحن نغامر بتكرار فقاعة الضجيج حول العملات المشفرة التي حدثت قبل عامين فقط".

ويوجد من لا يعتقد بإمكانية أن يصبح الذكاء الاصطناعي واعيا. فالمؤلف الأميركي يوجين ليندن يرى أنه "قد تمر قرون قبل أن نتمكن من بناء نسخ حاسوبية طبق الأصل عن أنفسنا، هذا في حال تمكنا من ذاك".

والأعقد من ذلك، أن مفهوم الوعي بحد ذاته ما زال غامضا، ولهذا اقترح الفيلسوف الألماني توماس ميتزينجر فرض حظر عالمي على المحاولات المتعمدة لخلق وعي مصطنع للذكاء الاصطناعي إلى حين نصل إلى تفسير دقيق للوعي، لكن هذا الاقتراح لاقى معارضة كون الاتفاق على معنى الوعي قد يأخذ وقتا طويلا.

الخبراء يحذرون من أن الذكاء الاصطناعي المستيقظ متحيز حتى الآن على الأقل (غيتي) تحذيرات حول الذكاء المستيقظ

أما فيما يتعلق بالذكاء الاصطناعي المستيقظ، فيوجد إجماع على أن حقبته قد بدأت مع برامج الدردشة التي ترتكز على الذكاء الاصطناعي التوليدي مثل شات جي بي تي، وغوغل جيمني (Gemini)، والتي تجيب عن الأسئلة المرتبطة بالثقافة والأخلاق والتنوع الاجتماعي.

لكن يحذر بعض الخبراء من أن الذكاء الاصطناعي المستيقظ متحيز (حتى الآن على الأقل)، فمثلا أظهر جيمني صورا لأشخاص سمر البشرة وآسيويين يرتدون الزي العسكري الألماني النازي في فترة الحرب العالمية الثانية، كما أظهر صورا لهنود حمر يرتدون زي الفايكونغ، وهو ما اعتبره الخبراء تزييفا للتاريخ.

ودفع إيلون ماسك للقول "الذكاء الاصطناعي المستيقظ مثل غوغل جيمني يمكن أن يقتل الناس".

وأقر الرئيس التنفيذي لشركة غوغل، ساندر بيتشاي في مذكرة داخلية، بأن بعض ردود جيمني "أساءت لمستخدمينا وأظهرت تحيزا". وقال إن ذلك "غير مقبول على الإطلاق"، مضيفا أن فرقه "تعمل على مدار الساعة" لإصلاح المشكلة.

لكن مشكلة الذكاء الاصطناعي المستيقظ لا تقتصر على جيمني، بل تتعلق بجميع نظم الذكاء الاصطناعي التوليدي، كونها ترتكز على الكميات الهائلة من البيانات التي يتم تدريب أدوات الذكاء الاصطناعي عليها، بما في ذلك بيانات عنصرية ومتحيزة.

تحاول الشركات المطورة لهذه النظم حاليا معالجة هذه المشكلة العويصة باستبعاد البيانات المتحيزة من التدريب. وعلى الرغم من هذه المشكلة الراهنة، يرى بعض المفكرين أن الذكاء الاصطناعي المستيقظ أكثر حيادية من ذكاء البشر. تقول جانيت آدامز، المديرة التنفيذية للعمليات المتفائلة في مؤسسة "سينغولارتي نت" (SingularityNET) "أرى مستقبلا يتخذ فيه الذكاء الاصطناعي العام قرارات أكثر أخلاقية من القرارات التي يتخذها البشر. ويمكنه أن يفعل ذلك لكونه لا يملك مشاعر غيرة أو جشع أو أجندات خفية".

مقالات مشابهة

  • غوغل تسخّر الذكاء الاصطناعي للكشف عن الثغرات البرمجية
  • “تطور الذكاء الاصطناعي في مجال التجسس والأمان: تحديات وفرص
  • دعوى قضائية ضد OpenAI وMicrosoft
  • مستشار شيخ الأزهر تلتقى وزير الشئون الدينية الإندونيسي لمناقشة توثيق العلاقات العلمية
  • الذكاء الاصطناعي يدخل عالم الكوميديا والإعلان
  • معلومات الوزراء: 254.8 مليون شخص استخدموا أدوات الذكاء الاصطناعي عالميا عام 2023
  • هل اقترب عصر الذكاء الاصطناعي الواعي؟
  • معلومات الوزراء: 254.8 مليون شخص استخدموا أدوات الذكاء الاصطناعي عالمياً عام 2023
  • جامعة السلطان قابوس والذكاء الاصطناعي
  • دور الساعة البيولوجية في علاج السرطان.. دراسة تحسم الجدل