تحذيرات من قدرة الذكاء الاصطناعي على التسبب بظهور جائحة أو وباء.. كيف سيحدث ذلك؟
تاريخ النشر: 31st, August 2024 GMT
الولايات المتحدة – حذر خبراء من أن نماذج الذكاء الاصطناعي يمكنها إنشاء مسببات أمراض (جراثيم أو فيروسات وغيرها من الكائنات الحية الدقيقة) قادرة على “التسبب بظهور جائحة أو وباء”.
شهدت نماذج الذكاء الاصطناعي المتخصصة المدربة على البيانات البيولوجية تقدما ملحوظا، بشكل يساعد على تسريع تطوير اللقاحات وعلاج الأمراض وغيرها.
ولهذا السبب يدعو الخبراء الحكومات إلى إدخال الرقابة الإلزامية والحواجز الواقية للنماذج البيولوجية المتقدمة في ورقة بحثية جديدة نُشرت في 22 أغسطس في مجلة Science التي تمت مراجعتها من قبل الأقران.
وفي حين أن نماذج الذكاء الاصطناعي اليوم ربما لا “تساهم بشكل كبير” في المخاطر البيولوجية، فإن الأنظمة المستقبلية يمكن أن تساعد في هندسة مسببات الأمراض الجديدة القادرة على إحداث الأوبئة.
وصدر هذا التحذير في الورقة البحثية من قبل مؤلفين مشاركين من جامعة جونز هوبكنز وجامعة ستانفورد وجامعة فوردهام، الذين يقولون إن نماذج الذكاء الاصطناعي “يتم تدريبها، أو هي قادرة على التلاعب بشكل هادف بكميات كبيرة من البيانات البيولوجية، من تسريع تصميم الأدوية واللقاحات إلى تحسين غلة المحاصيل”.
ولكن كما هو الحال مع أي تقنية جديدة قوية، فإن مثل هذه النماذج البيولوجية ستشكل أيضا مخاطر كبيرة.
وبسبب طبيعتها العامة، يمكن استخدام نفس النموذج البيولوجي القادر على تصميم ناقل فيروسي حميد لتقديم العلاج الجيني لتصميم فيروس أكثر إمراضية قادرا على التهرب من المناعة الناجمة عن اللقاح”.
واستمرت الورقة البحثية في القول: “إن الالتزامات الطوعية بين المطورين لتقييم القدرات الخطيرة المحتملة للنماذج البيولوجية ذات مغزى وأهمية، ولكنها لا يمكن أن تقف بمفردها. نقترح أن تقوم الحكومات الوطنية، بما في ذلك الولايات المتحدة، بتمرير التشريعات وتحديد القواعد الإلزامية التي من شأنها منع النماذج البيولوجية المتقدمة من المساهمة بشكل كبير في المخاطر واسعة النطاق، مثل إنشاء مسببات الأمراض الجديدة أو المحسنة القادرة على التسبب في أوبئة كبرى أو حتى جوائح”.
وعلى الرغم من أن نماذج الذكاء الاصطناعي اليوم من غير المرجح أن “تساهم بشكل كبير” في المخاطر البيولوجية، فإن “المكونات الأساسية لإنشاء نماذج بيولوجية متقدمة مثيرة للقلق قد تكون موجودة بالفعل أو ستوجد قريبا”.
وبحسب ما ورد، أوصى الخبراء الحكومات بإنشاء “مجموعة من الاختبارات” التي يجب أن تقوم بها نماذج الذكاء الاصطناعي البيولوجية قبل إصدارها للجمهور، ومن ثم يمكن للمسؤولين تحديد مدى تقييد الوصول إلى النماذج.
وقالت أنيتا شيشرون، نائب المدير في مركز جونز هوبكنز للأمن الصحي وأحد مؤلفي الورقة البحثية، وفقا لمجلة “تايم”: “نحن بحاجة إلى التخطيط الآن. ستكون بعض الرقابة الحكومية المنظمة والمتطلبات ضرورية من أجل تقليل مخاطر الأدوات القوية بشكل خاص في المستقبل”.
وبسبب التقدم المتوقع في قدرات الذكاء الاصطناعي والسهولة النسبية في الحصول على المواد البيولوجية وتوظيف أطراف ثالثة لإجراء التجارب عن بعد، تعتقد شيشرون أن المخاطر البيولوجية الناجمة عن الذكاء الاصطناعي قد تتجلى “في غضون العشرين عاما القادمة، وربما حتى أقل من ذلك بكثير”، ما لم يكن هناك إشراف مناسب.
وتضيف: “نحن بحاجة إلى التفكير ليس فقط في الإصدار الحالي من جميع الأدوات المتاحة، بل والإصدارات التالية، بسبب النمو الهائل الذي نراه. ستصبح هذه الأدوات أكثر قوة”.
المصدر: فوكس نيوز
المصدر: صحيفة المرصد الليبية
كلمات دلالية: نماذج الذکاء الاصطناعی
إقرأ أيضاً:
دراسة جديدة تكشف عن غزو الذكاء الاصطناعي للمحتوى على الإنترنت
كشفت دراسة حديثة، نُشرت على خادم الأبحاث الأولية arXiv التابع لجامعة كورنيل، عن الانتشار الواسع للمحتوى المُنشأ بالذكاء الاصطناعي على الإنترنت، مما يثير مخاوف بشأن تأثيره على جودة المعلومات التي نتعرض لها يوميًا.
ووفقًا للتحليل الذي شمل أكثر من 300 مليون وثيقة، بما في ذلك شكاوى المستهلكين، البيانات الصحفية للشركات، إعلانات الوظائف، والبيانات الإعلامية الصادرة عن الأمم المتحدة، فإن استخدام أدوات الذكاء الاصطناعي في إنشاء المحتوى شهد قفزة كبيرة منذ إطلاق ChatGPT .
ووفقاً لموقع "FASTCOMPANY" أوضح الباحث ياوهوي زانغ، من جامعة ستانفورد وأحد مؤلفي الدراسة، أن الفريق أراد قياس مدى استخدام الأفراد لهذه الأدوات، وكانت النتيجة مفاجئة. فقبل إطلاق ChatGPT، كانت نسبة المحتوى الذي يُشتبه في أنه أُنشئ بمساعدة الذكاء الاصطناعي لا تتجاوز 1.5%، لكنها ارتفعت بسرعة بعشرة أضعاف بعد انتشار الأداة، خاصة في شكاوى المستهلكين والبيانات الصحفية.
اقرأ أيضاً.. كارل.. ذكاء اصطناعي يكتب أبحاثاً معترف بها
استخدمت الدراسة بيانات من شكاوى المستهلكين المقدمة إلى مكتب حماية المستهلك المالي CFPB قبل حله من قبل إدارة ترامب، لتحليل انتشار المحتوى المُنشأ بالذكاء الاصطناعي في مختلف الولايات الأميركية.
أخبار ذات صلة
وأظهرت النتائج أن ولايات أركنساس، ميزوري، وداكوتا الشمالية كانت الأكثر استخدامًا للذكاء الاصطناعي، حيث تم رصد أدلة على ذلك في ربع الشكاوى تقريبًا. في المقابل، كانت ولايات فيرمونت، أيداهو، وويست فرجينيا الأقل اعتمادًا عليه، حيث أظهرت البيانات أن ما بين 5% إلى 2.5% فقط من الشكاوى تضمنت إشارات لاستخدام الذكاء الاصطناعي.
على عكس أدوات الكشف التقليدية، طور فريق البحث نموذجًا إحصائيًا جديدًا لتحديد المحتوى الذي يُرجح أنه أُنشئ بالذكاء الاصطناعي. اعتمد هذا النموذج على تحليل أنماط اللغة، وتوزيع الكلمات، والبنية النصية، حيث تمت مقارنة النصوص المكتوبة قبل ظهور ChatGPT مع تلك المعروفة بأنها مُعدلة أو منشأة بواسطة النماذج اللغوية الضخمة. وكانت نسبة الخطأ في التنبؤ أقل من 3.3%، مما يعزز دقة النتائج.
في ظل هذا الانتشار الواسع، يعبر زانغ وفريقه عن قلقهم من أن الذكاء الاصطناعي قد يُقيد الإبداع البشري، حيث أصبحت العديد من أنواع المحتوى - من الشكاوى الاستهلاكية إلى البيانات الصحفية - تعتمد بشكل متزايد على النماذج التوليدية بدلًا من الأسلوب البشري التقليدي.
اقرأ أيضاً.. هل يستطيع الذكاء الاصطناعي أن يكون طوق النجاة للمحتاجين؟
ومع استمرار تطور تقنيات الذكاء الاصطناعي، يتزايد الجدل حول مدى تأثيرها على جودة المعلومات، ومدى قدرتها على استبدال الإبداع البشري بنصوص مصممة وفق خوارزميات، مما يثير تساؤلات حول مستقبل المحتوى على الإنترنت.
إسلام العبادي(الاتحاد)