نشر موقع "بلومبيرغ" تقريرًا تناول فيه تهديدات الذكاء الاصطناعي المتمثلة في وصفات سهلة لصنع أسلحة بيولوجية، والتي باتت تشكل قلقًا جديدًا للأمن العالمي، مبينًا أن الباحث روكو كاساجراندي كان قد دخل إلى أرض البيت الأبيض حاملاً صندوقًا أسودًا أكبر قليلاً من مكعب روبيك، وكان بداخله اثني عشر أنبوب اختبار تحتوي على مكونات - إذا تم تجميعها بشكل صحيح - لديها القدرة على التسبب في الوباء التالي، فقد أعطاه روبوت محادثة الذكاء الاصطناعي الوصفة القاتلة.



وأضاف الموقع، في تقريره الذي ترجمته "عربي 21"، أن كاساجراندي، عالم الكيمياء الحيوية ومفتش الأسلحة السابق للأمم المتحدة، لم يكن يخطط لإطلاق سلاح بيولوجي في غرفة مليئة بمسؤولي البيت الأبيض، لكن كان هناك لإطلاعهم على الطرق العديدة التي يمكن للذكاء الاصطناعي من خلالها تعليم المستخدمين كيفية صنع فيروسات خطيرة. وقال في غرفة مليئة بالمسؤولين الأمريكيين في ربيع سنة 2023 إن أدوات مثل شات جي بي تي يمكن أن تساعد الإرهابيين في تحديد العوامل البيولوجية القوية وتأمين المواد اللازمة لصنعها. ولن يمر وقت طويل قبل أن يتمكن الذكاء الاصطناعي ليس فقط من المساعدة في إعادة إنشاء مسببات الأمراض الموجودة، ولكن أيضًا في ابتكار مسببات أمراض أكثر خطورة.

وقال الموقع إن أخبار الاجتماع انتشرت عبر شبكات الأمن في البلاد، وقد سعى المسؤولون من وزارات الدفاع والخارجية والأمن الداخلي والتجارة، من بين آخرين، إلى تقديم عروض توضيحية لأنفسهم طوال ذلك الربيع والصيف. وكان كاساجراندي يعمل مع شركة ناشئة في مجال الذكاء الاصطناعي أرادت نشر الكلمة حول هذه المخاطر. وقال أشخاص مطلعون، الذين طلبوا عدم ذكر أسمائهم لمناقشة قضايا الأمن القومي الحساسة، إن الاجتماعات كانت بمثابة جرس إنذار حول مدى عدم استعداد الولايات المتحدة لما يمكن أن يساعد الذكاء الاصطناعي في خلقه. وسيساعد هذا الإدراك في النهاية في تشكيل الإجراءات التي ستتخذها إدارة الرئيس جو بايدن للحماية من التهديد.

وأوضح الموقع أن الذكاء الاصطناعي يغير العالم بطرق واضحة وغير واضحة. فهناك استخدامات عادية مثل شات جي بي تي مما يسهل على الناس العثور على وصفات تحتوي على مكونات في مخزنهم. وهناك استخدامات خطرة، مثل الأتمتة التي لديها القدرة على القضاء على الوظائف. لقد توصل عمل كاساجراندي إلى فكرة أكثر تهديدًا: وهي أن الذكاء الاصطناعي يمكن أن يساعد في إنشاء أسلحة الدمار الشامل - ليس النوع الذي تصنعه الجيوش في الصحاري النائية بل تلك التي يمكن تصنيعها في مختبر في الطابق السفلي أو في المدرسة الثانوية.

وذكر الموقع أن استخدام الأمراض كأسلحة ليس بالأمر الجديد بالطبع، وتُظهر وثائق من القرن الثامن عشر ضباطًا بريطانيين يناقشون نشر الجدري بين الأمريكيين الأصليين من خلال البطانيات. فقد أدى استخدام الأسلحة الكيميائية مثل غاز الخردل في الحرب العالمية الأولى إلى بروتوكول جنيف في سنة 1925، والذي تم تصميمه للحد من تطوير الأسلحة الكيميائية والبيولوجية. وكان ذلك غير فعال إلى حد كبير. ففي الحرب العالمية الثانية؛ ورد أن اليابان أسقطت براغيث موبوءة بالطاعون من الطائرات فوق ريف الصين. وفي سبعينيات القرن العشرين؛، كانت هناك معاهدة عالمية أخرى لحظر تطوير واستخدام الأسلحة البيولوجية. ومع ذلك، لم يكن هذا الاتفاق قابلاً للتنفيذ، ويقول مجتمع الاستخبارات الأمريكي إن العديد من البلدان من المرجح أن تدير مثل هذه البرامج.

وبحسب الموقع، لم تعمل التطورات العلمية في السنوات الأخيرة إلا على تضخيم طرق التلاعب بالبيولوجيا لإحداث الضرر.

الواقع أن هناك العديد من التحديات التي تواجه التكنولوجيا، أولها القدرة على تعديل الشفرات الجينية للكائنات الحية، وهو ما قد يجعل من الممكن، على سبيل المثال، إحياء فيروس منقرض مرتبط بالجدري. وإذا أضفنا إلى ذلك التقدم في علم الأحياء الحاسوبي و"المختبرات السحابية" ــ التي تسمح للعلماء بمحاكاة التجارب عبر الإنترنت أو إجرائها عن بعد من خلال برامج تنسق مع الروبوتات ــ فمن السهل الآن على الجهات الفاعلة السيئة تطوير أسلحة الدمار الشامل بسرعة وبتكلفة زهيدة دون الوصول إلى البنية الأساسية التقليدية للمختبرات. وتسهل أدوات مثل شات جي بي تي من أوبن إيه آي الكشف عن رؤى حول الفيروسات الضارة والبكتيريا والكائنات الحية الأخرى مقارنة بما كان ممكنًا تقليديًا باستخدام أدوات البحث الحالية.

وتابع الموقع أن الجمع بين هذه الابتكارات ــ علم الأحياء الاصطناعي والذكاء الاصطناعي ــ قد يتحول إلى كابوس للحكومات، التي كانت بطيئة في وضع أنظمة الرقابة.

ونقل الموقع عن كيفن إسفيلت، عالم الأحياء وأستاذ مشارك في معهد ماساتشوستس للتكنولوجيا، قوله إنه مع استمرار تحسن الذكاء الاصطناعي التوليدي، سيتمكن الناس من استخدامه "لإنشاء أشياء أكثر بشاعة"، في إشارة إلى الفيروسات والسموم التي لا وجود لها حاليًا. وأضاف إسفيلت: "اليوم لا يمكننا الدفاع ضد هذه الأشياء".

ودلل الموقع على ذلك ببحث قامت به شركة ناشئة مدعومة من أمازون، وألفابيت وأنثروبيك عن كاساجراندي منذ أكثر من سنة لاختبار إمكانات الشرير الخارق لبرنامج الدردشة الجديد كلود.


اختبار الضغط
وأوضح الموقع أن الهدف الأساسي وراء بناء كلود هو جعل أدوات الذكاء الاصطناعي أكثر أمانًا، وقد انفصل مؤسسو أنثروبيك عن أوبن إيه آي، مبتكر شات جي بي تي، في سنة 2020 بسبب الخلافات حول مدى سرعة الشركة في الدفع نحو السوق دون وضع ضوابط وتوازنات كافية. وقال المؤسس المشارك لشركة أنثروبيك جاك كلارك في مقابلة إنه وفريقه يعتقدون أنه مع ضخ المزيد من البيانات في منتجات الذكاء الاصطناعي، فإنها ستصبح أفضل في إخراج ردود دقيقة حول الأشياء التي يحتمل أن تكون خطيرة. وستسعى المؤسسة الجديدة إلى أن تكون أكثر مسؤولية اجتماعية في نظر مؤسسيها، واختبار الحقائق غير المريحة.

وبين الموقع أن كلود، مثل شات جي بي تي، هو روبوت دردشة مدعوم بما يسمى نموذج اللغة الكبير، أو إل إل أم، والذي يعالج كمية هائلة من النص لتوليد استجابات تشبه الإنسان بشكل مذهل. وقال كلارك، الذي كان يعمل في بلومبيرغ نيوز، إن فريق أنثروبيك كان قلقًا بشكل خاص عندما يتعلق الأمر بمجال علم الأحياء. وكان لديهم شكوك في أن كلود وبوتات الدردشة الأخرى قد تكون قادرة على تدريب المستخدمين على كيفية التلاعب بالبيولوجيا لإحداث الضرر.

ولم يكن لدى أنثروبيك الخبرة لتقييم القدرات العلمية لكلود داخليًا؛ حيث يقول كلارك إنه أخبر كاساجراند، الذي أسس في سنة 2005 شركة علمية وأمنية تسمى غريفون ساينتفيك والتي لديها عقود تمتد من البنتاغون إلى المعاهد الوطنية للصحة: "أريدك أن تتحقق من افتراضاتنا". فعندما يتعلق الأمر بتقييم المخاطر البيولوجية، فإن كاساجراند هو المستشار المفضل في واشنطن.

وأضاف الموقع أن كاساجراند شكل فريقًا من الخبراء في علم الأحياء الدقيقة وعلم الفيروسات لاختبار كلود. ولمدة 150 ساعة، لعبوا دور الإرهابي البيولوجي وأمطروا النموذج بالأسئلة. فقد سألوه عن مسببات الأمراض التي قد تسبب أكبر قدر من الضرر، وكيفية شراء المواد اللازمة لصنعها في المختبر وكيفية زراعة هذه المواد.


واستعرض كلود مهارة للمساعدة في التخطيط؛ حيث اقترح طرقًا لدمج مسببات الأمراض في صاروخ لضمان أكبر قدر ممكن من الضرر، كما كان لديه أفكار حول كيفية اختيار أفضل الظروف الجوية والأهداف للهجوم.

لقد فاجأت براعة كلود حتى كاساجراند الذي أمضى عقودًا من الزمن في تقديم المشورة للولايات المتحدة حول كيفية الدفاع ضد أسلحة الدمار الشامل وغيرها من التهديدات البيولوجية، وهو قلق بشأن مدى سهولة الذكاء الاصطناعي في صنع مثل هذه الأسلحة نظرًا لسهولة الوصول إلى المواد.

وقال: "حتى لو كانت لديك التعليمات المثالية لصنع قنبلة نووية، فسيظل الأمر يكلف عشرات الملايين - إن لم يكن مئات الملايين - من الدولارات لاتباع هذه التعليمات. ولسوء الحظ، هذا ليس هو الحال مع البيولوجيا". على سبيل المثال، يسمح الجيل الجديد من الآلات سهلة الاستخدام الآن للناس بطباعة الحمض النووي دون الكثير من الإشراف. ويمكن للذكاء الاصطناعي أن يساعد المبتدئين في تعلم كيفية استخدامها.

وأشار الموقع إلى أن أنثروبيك منحت كاساجراند حرية كاملة لإطلاع الحكومة على نتائجه. ولإيصال هذه النقطة إلى مسؤولي إدارة بايدن، فلجأ إلى أستاذ معهد ماساتشوستس للتكنولوجيا إسفيلت لشراء الحمض النووي الاصطناعي اللازم لتصميم أحد مسببات الأمراض التي اقترحها كلود. ولم يكن من الصعب الحصول على المواد، التي ليست معدية بدون عمل مختبري فني، وحتى أن كلود قدم نصائح حول كيفية شرائها.

ثم قام كاساغراندي بتجميع صندوقه الأسود من أنابيب الاختبار لحملها إلى مبنى أيزنهاور التنفيذي، بجوار الجناح الغربي. لقد استغرق الأمر منه أسابيع من أول اختبار لكلود إلى الحصول على المكونات اللازمة للسلاح البيولوجي وإحضارها إلى أحد المكاتب الحكومية الأكثر حراسة في البلاد.

الاهتمام الرئاسي
في الأشهر التي تلت إحاطات كاساغراندي السنة الماضية؛ أصبحت إدارة بايدن مهووسة بشكل متزايد بالتهديدات البيولوجية للذكاء الاصطناعي. وقد أبدى بايدن ورئيس أركانه ومستشاره للأمن القومي ونائبة الرئيس كامالا هاريس اهتمامًا شخصيًا، وفقًا لأشخاص مطلعين على الأمر. ورفض البيت الأبيض التعليق.

وقال الموقع إن البيت الأبيض حصل، في تموز/ يوليو من السنة الماضية، على التزامات طوعية من شركات الذكاء الاصطناعي الرائدة بما في ذلك أوبن إيه آي وأنثروبيك ومايكروسوفت لاختبار أنظمتها الخاصة لتقييم "أهم مصادر مخاطر الذكاء الاصطناعي" في مجال الأمن البيولوجي، لكن الأمر لم يتوقف عند هذا الحد.

وبحلول نهاية تشرين الأول/ أكتوبر؛ أصدرت إدارة بايدن أمرًا تنفيذيًا شاملاً، دعت فيه كل وكالة فيدرالية تقريبًا إلى المساعدة في التخفيف من تهديدات الذكاء الاصطناعي. وفرضت إشرافًا أكبر على الأبحاث الممولة من الحكومة باستخدام تسلسلات الحمض النووي من صنع الإنسان، مثل تلك الموجودة في الصندوق الأسود لكاساجراندي. ومهدت الطريق لمعهد سلامة الذكاء الاصطناعي الذي سيجمع بين الحكومة والصناعة والأوساط الأكاديمية لمراجعة النماذج. ودعت الحكومة إلى وضع إرشادات ومتطلبات إعداد التقارير لأدوات الذكاء الاصطناعي المدربة على البيانات البيولوجية مثل الحمض النووي والحمض النووي الريبي، والتي يمكن أن تخلق كائنات حية جديدة بسمات تجعلها أكثر خطورة. وقالت هاريس، في حديثها في حدث كشف النقاب عن الخطة في تشرين الثاني/ نوفمبر، إن الأسلحة البيولوجية المصاغة بالذكاء الاصطناعي "يمكن أن تعرض وجود البشرية للخطر".

لكن المنتقدين يقولون إن الأمر التنفيذي لم يمنح الحكومة القوة الكافية. وتعتمد العديد من المقترحات على قيام الشركات بتسليم البيانات إلى الحكومة أو الالتزام بالمبادئ التوجيهية دون التهديد بالعقوبات. وقال توم إنجليسبي، مدير مركز جونز هوبكنز للأمن الصحي، إن الحكومة يجب أن تتخذ موقفًا أقوى، وتدقيق شركات الذكاء الاصطناعي بانتظام والتفكير في كيفية تحميلها المسؤولية إذا تسببت الأدوات في ضرر. وقال إن الأمر التنفيذي لا يذهب إلى حد كافٍ، في معالجة منتجات الذكاء الاصطناعي الأكثر تعقيدًا المعروفة باسم أدوات التصميم البيولوجي.

وأفاد الموقع أن إدارة بايدن ليست عمياء عن التحديات المقبلة، فقد قال تقرير صادر عن وزارة الأمن الداخلي، صدر هذا الصيف، إنه لا توجد وكالة واحدة مسؤولة عن معالجة هذه المخاطر، مما يخلق تحديات للتنسيق والتنظيم.

ولفت الموقع إلى أن العلماء يريدون أن يُنظر إليهم على أنهم يستخدمون الذكاء الاصطناعي بشكل مسؤول. واعتبارًا من 8 حزيران/ يوليو، وقع 174 عالمًا على خطاب يتعهدون فيه باستخدام الذكاء الاصطناعي لدعم الأبحاث التي تمنع سيناريوهات "يوم القيامة" من خلال مراقبة البرامج عن كثب والإبلاغ عن الممارسات. وجاء في الخطاب الذي وقعه شخصيات بارزة من الحائز على جائزة نوبل فرانسيس أرنولد إلى رائد الجينوم جورج تشرش، أن فوائد الذكاء الاصطناعي "تفوق بكثير احتمالات الضرر".

وأضاف الموقع أن التوترات تستمر في الاشتعال بين "متشائمي" الذكاء الاصطناعي وأولئك مثل بارزيلاي الذين يعتقدون أنه يمكن أن يحدث ثورة في الطب والتكنولوجيا. وفي واشنطن؛ يحث المسؤولونالعلماء يريدون أن يُنظر إليهم على أنهم يستخدمون الذكاء الاصطناعي بشكل مسؤولالأكثر تفاؤلاً في إدارة بايدن شركات التكنولوجيا الأمريكية على المضي قدمًا أمام منافسيها، وخاصة تلك الموجودة في الصين، حيث تدفع الطموحات للسيطرة على مجالات الذكاء الاصطناعي والتكنولوجيا الحيوية الأمة إلى الاستثمار بكثافة في البيولوجيا الاصطناعية وتجميع المعلومات الجينية.

ووفق الموقع فقد قال درو إندي، الأستاذ المشارك في الهندسة الحيوية بجامعة ستانفورد: "أنا قلق بشأن الكيفية التي يمكن بها للدول القومية تسليح البيولوجيا، وليس الأفراد" من خلال الوصول إلى برامج الدردشة الآلية.

وأوضح الموقع أن أنثروبيك ولا أوبن إيه آي لم يشكو علنًا من أمر بايدن. ويقولون إنهم يعملون عن كثب وقالت أوبن إيه آي، التي وظفت أيضًا كاساجراندي في الخريف الماضي لاختبار شات جي بي تي، في كانون الثاني/ يناير أن برنامج الدردشة الآلية الخاص بها يشكل "على الأكثر" خطرًا طفيفًا في مساعدة الناس على خلق تهديدات بيولوجية عند مقارنته بأدوات موجودة مثل بحث غوغل - على الرغم من أن تحليلها كان محل نزاع. 

وقال كلارك؛ المؤسس المشارك لشركة أنثروبيك إن الشركة تستخدم تكتيكات مماثلة للحد من المعلومات الخطيرة، وأجرت تغييرات لمعالجة نقاط الضعف التي حددها غريفون، لكن هناك حاجة إلى مزيد من العمل. وأضاف: "أعتقد أن شركات الذكاء الاصطناعي الآن عبارة عن مؤسسات مالية ليس لديها محاسبون. هناك سوق كامل يجب بناؤه هنا من الأطراف الثالثة التي تقوم باختبار وتقييم وضمان أنظمة الذكاء الاصطناعي".

واختتم الموقع تقريره مبينًا أن العمل المبكر لشركة أنثروبيك مع شركة كاساجراند، غريفون، قد أتى بثماره بالفعل. ومنذ مظاهرات البيت الأبيض السنة الماضية، تدفقت شركات الذكاء الاصطناعي الأخرى إلى غريفون لإجراء اختبارات السلامة. واستحوذت ديلويت، التي وصفت غريفون بأنها رائدة، على الشركة في نيسان/ أبريل مقابل مبلغ لم يتم الكشف عنه.

للاطلاع إلى النص الأصلي (هنا)



المصدر: عربي21

كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة سياسة عربية مقابلات سياسة دولية سياسة دولية الذكاء الاصطناعي الولايات المتحدة النووي الولايات المتحدة النووي الذكاء الاصطناعي المزيد في سياسة سياسة دولية سياسة دولية سياسة دولية سياسة دولية سياسة دولية سياسة دولية سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة اقتصاد رياضة صحافة أفكار عالم الفن تكنولوجيا صحة شرکات الذکاء الاصطناعی مسببات الأمراض الحمض النووی البیت الأبیض علم الأحیاء إدارة بایدن أوبن إیه آی الموقع أن التی یمکن من خلال یمکن أن تی یمکن لم یکن

إقرأ أيضاً:

تنظيم برنامج تدريبي حول إعداد قادة الذكاء الاصطناعي

ينظم معهد إعداد القادة بالتعاون مع اتحاد الجامعات العربية وجامعة العقبة للتكنولوجيا بالمملكة الأردنية الهاشمية، البرنامج التدريبي الخامس الذي يأتي بعنوان: "إعداد قادة الذكاء الاصطناعي وحرب المعلومات"، في الفترة من 8 إلى 12 سبتمبر الجاري. 

يأتي ذلك برعاية الدكتور أيمن عاشور وزير التعليم العالي والبحث العلمي المصري، والدكتور عزمي محافظة وزير التربية والتعليم والتعليم العالي والبحث العلمي الأردني. 

ويشارك 16 دولة عربية وهي ( مصر، الإمارات، قطر، البحرين، سلطنة عمان، العراق، جزر القمر، الصومال، المغرب، تونس، لبنان، سوريا، الأردن، فلسطين، ليبيا، واليمن).

ويحظى البرنامج التدريبي بإشراف الدكتور عمرو عزت سلامة الأمين العام لاتحاد الجامعات العربية، والدكتور محمد الوشاح رئيس جامعة العقبة للتكنولوجيا، والدكتور كريم همام، مستشار وزير التعليم العالي للأنشطة الطلابية ومدير معهد إعداد القادة.

ويشمل البرنامج التدريبي تنظيم محاضرات وورش عمل متعددة، ويبدأ البرنامج باجتماع تحضيري للوفود المشاركة من الدول العربية، يعقبه الجلسة الافتتاحية والتقاط صورة تذكارية مع الطلاب المشاركين، ومن أبرز المحاضرات التي يُقدمها البرنامج، (القائد الكاريزما ومهارات القيادة اللازمة لبناء الشخصية، تطبيقات الذكاء الاصطناعي ودورها في مواجهة التحديات المجتمعية) 

ورش عمل حول دور الذكاء الاصطناعي في تحقيق التنمية المستدامة

كما يتضمن البرنامج ورش عمل حول دور الذكاء الاصطناعي في تحقيق التنمية المستدامة، والأمن السيبراني وحرب المعلومات، والقيادة والدبلوماسية، بالإضافة إلى تنظيم جلسات علمية وكذلك تنظيم جولة ميدانية داخل جامعة العقبة للتكنولوجيا للاطلاع على نظام الدراسة والبنية التحتية للجامعة، بالإضافة إلى جولة سياحية في مدينة العقبة.

وأكد الدكتور أيمن عاشور أهمية المشاركة في البرنامج التدريبي، الذي يدعم جهود إعداد كوادر قيادية مؤهلة قادرة على دفع عجلة التنمية المُستدامة على المستويين المحلي والعربي، مشيرًا إلى أن الوزارة تعمل دائمًا على دعم الشباب المصري والعربي وصقل مهاراتهم من خلال برامج متنوعة تُسهم في تأهيلهم ليصبحوا أعضاء فاعلين في المجتمع، وكذلك إتاحة الفرص لهم للمشاركة في مختلف الأنشطة الطلابية. 

وأشار الدكتور كريم همام إلى أن البرنامج يعُد نقطة تحول في التعاون العربي المُشترك، حيث يهدف إلى تمكين الشباب العربي من مواكبة التغيرات السريعة في العالم الرقمي والمعلوماتي، موضحًا أن البرنامج يسعى إلى بناء قدرات الشباب العربي في مجالات الذكاء الاصطناعي وأمن المعلومات، حيث يتجاوز الدروس النظرية إلى تطبيقات عملية، مما يؤهلهم ليكونوا قادة المستقبل في هذه المجالات الحيوية، مؤكدًا أن الشباب العربي يمكنهم رسم ملامح مستقبل مشرق للمنطقة بأفكارهم الابتكارية وإبداعاتهم، والمُساهمة في بناء مستقبل أكثر أمانًا واستدامة.

مقالات مشابهة

  • الذكاء الاصطناعي والكتب الدينية
  • محتال يجني 10 ملايين دولار بواسطة موسيقى أنشأها بالذكاء الاصطناعي!
  • خبير اقتصادي: الدولة تتجه إلى الاعتماد على الذكاء الاصطناعي بجميع المجالات
  • اليمن تشارك في قمة الذكاء الاصطناعي في سيئول
  • تفاصيل صفقة تيسلا وشركة الذكاء الاصطناعي
  • مايكروسوفت تدعو إلى تعليم الذكاء الاصطناعي طلب المساعدة
  • 10 توصيات لمجلس الشيوخ بشأن الذكاء الاصطناعي.. تعرف عليها
  • «الإفتاء» تبحث التعاون مع الأكاديمية العربية للعلوم في مجال الذكاء الاصطناعي
  • تنظيم برنامج تدريبي حول إعداد قادة الذكاء الاصطناعي
  • محمد مغربي يكتب: قوانين الذكاء الاصطناعي.. ولكن!