تحذير من الذكاء الاصطناعي.. قد يستخدم لصنع أسلحة بيولوجية
تاريخ النشر: 27th, July 2023 GMT
شاهد المقال التالي من صحافة الأردن عن تحذير من الذكاء الاصطناعي قد يستخدم لصنع أسلحة بيولوجية، سواليف حذر خبراء في الذكاء _الاصطناعي من أن التسارع في تطوير هذا الذكاء قد يؤدي إلى أخطار جسيمة تضاهي تهديد .،بحسب ما نشر سواليف، تستمر تغطيتنا حيث نتابع معكم تفاصيل ومعلومات تحذير من الذكاء الاصطناعي.. قد يستخدم لصنع أسلحة بيولوجية، حيث يهتم الكثير بهذا الموضوع والان إلى التفاصيل فتابعونا.
#سواليف
حذر خبراء في #الذكاء_الاصطناعي من أن التسارع في تطوير هذا الذكاء قد يؤدي إلى #أخطار جسيمة تضاهي تهديد الإرهابيين الذين يستخدمون #التكنولوجيا لصنع #أسلحة_بيولوجية.
وقالت صحيفة “واشنطن بوست” إن قادة الذكاء الاصطناعي الثلاث، وأثناء شهادتهم في جلسة استماع بالكونغرس، حذروا من أن التسارع الكبير في تطوير الذكاء الاصطناعي قد يؤدي إلى أضرار جسيمة خلال السنوات القليلة المقبلة، تضاهي الإرهابيين الذين يستخدمون التكنولوجيا لصنع أسلحة بيولوجية.
ونقلت الصحيفة عن أستاذ الذكاء الاصطناعي في جامعة “مونتريال” والمعروف بأحد آباء علوم الذكاء الاصطناعي الحديثة، يوشوا بنغيو، قوله إن “الولايات المتحدة يجب أن تقود خطط التعاون الدولي لتقنين واستخدام الذكاء الاصطناعي وتنظيم استخدام التكنولوجيا النووية على مستوى العالم”.
وحذر الرئيس التنفيذي لشركة “أنثروبيك” الناشئة في مجال الذكاء الاصطناعي، داريو أمودي، من أن “الخوف من الذكاء الاصطناعي المتطور يكمن في إمكانية استخدامه لإنتاج فيروسات خطيرة وأسلحة بيولوجية أخرى في أقل من سنتين”.
ومن جانبه، قال أستاذ علوم الكمبيوتر بجامعة كاليفورنيا في بيركلي، ستيوارت راسل، إن “الذكاء الاصطناعي من الصعب فهمه والتحكم في طريقة عمله بشكل كامل مقارنة بالتقنيات التكنولوجية الأخرى”.
ووفقا للصحيفة، أظهرت جلسة الاستماع حجم المخاوف بشأن تجاوز الذكاء الاصطناعي للذكاء البشري والخروج عن نطاق السيطرة لإلحاق الضرر بالبشرية والذي قد أصبح واقعا وليس خيالا علميا.
لكن في الأشهر الستة الماضية، بدأ عدد من الباحثين البارزين في مجال الذكاء الاصطناعي، بما في ذلك بنغيو، بالتحرك لتحذير العالم من مخاوف المصاحبة له، وحث السياسيون على ضرورة الانتباه لهذه التهديدات باعتبارها أحد الأسباب التي تجعل الحكومات بحاجة إلى إصدار تشريعات.
يذكر أن جلسة الاستماع تعقد بعد أيام من قيام شركات الذكاء الاصطناعي بما في ذلك “أوبن إيه أي”، و”ألفابيت” التباعة لغوغل، و”ميتا” بالتزامات طوعية للبيت الأبيض، الأسبوع الماضي، لتنفيذ تدابير مثل وضع علامة مائية على المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي للمساعدة في جعل التكنولوجيا أكثر أمانا.
185.208.78.254
اقرأ على الموقع الرسمي
وفي نهاية المقال نود ان نشير الى ان هذه هي تفاصيل تحذير من الذكاء الاصطناعي.. قد يستخدم لصنع أسلحة بيولوجية وتم نقلها من سواليف نرجوا بأن نكون قد وفقنا بإعطائك التفاصيل والمعلومات الكامله .
علما ان فريق التحرير في صحافة العرب بالتاكد منه وربما تم التعديل علية وربما قد يكون تم نقله بالكامل اوالاقتباس منه ويمكنك قراءة ومتابعة مستجدادت هذا الخبر او الموضوع من مصدره الاساسي.
المصدر: صحافة العرب
كلمات دلالية: الذكاء الذكاء الذكاء ايجي بست موعد عاجل الدولار الامريكي اليوم اسعار الذهب اسعار النفط مباريات اليوم جدول ترتيب حالة الطقس تحذیر من الذکاء الاصطناعی
إقرأ أيضاً:
رغم تفوقه في البرمجة.. نماذج الذكاء الاصطناعي تخفق في التاريخ
على الرغم من تميز الذكاء الاصطناعي في بعض المهام مثل البرمجة أو إنشاء البودكاست، إلا أنه يُظهر ضعفًا واضحًا في اجتياز اختبارات التاريخ المتقدمة، وفقًا لدراسة حديثة.
GPT-4 وLlama وGemini: نماذج لغوية فشلت في تقديم إجابات دقيقة
قام فريق من الباحثين بتطوير معيار جديد لاختبار ثلاث نماذج لغوية ضخمة رائدة: "GPT-4" من أوبن إي آي، و"Llama" من ميتا، و"Gemini" من جوجل، في الإجابة عن أسئلة تاريخية. يعتمد هذا المعيار، المعروف باسم "Hist-LLM"، على قاعدة بيانات التاريخ العالمي "Seshat"، وهي قاعدة بيانات شاملة للمعرفة التاريخية.
النتائج التي تم تقديمها الشهر الماضي في مؤتمر "NeurIPS" المرموق، كانت مخيبة للآمال. حيث حقق أفضل نموذج، وهو "GPT-4 Turbo"، دقة بلغت حوالي 46% فقط، وهي نسبة بالكاد تفوق التخمين العشوائي.
اقرأ أيضاً.. هل يتفوق "O3" على البشر؟ قفزة جديدة تُعيد تعريف الذكاء الاصطناعي
وأوضحت "ماريا ديل ريو-تشانونا"، إحدى المشاركات في الدراسة وأستاذة علوم الحاسوب في جامعة كوليدج لندن: "الاستنتاج الأساسي من هذه الدراسة هو أن النماذج اللغوية الكبيرة، رغم إمكانياتها المذهلة، لا تزال تفتقر إلى الفهم العميق المطلوب للتعامل مع استفسارات تاريخية متقدمة. يمكنها التعامل مع الحقائق الأساسية، ولكن عندما يتعلق الأمر بالتحليل العميق على مستوى الدكتوراه، فهي غير قادرة على الأداء المطلوب بعد".
القصور في الفهم العميق
من الأمثلة التي فشل فيها النموذج، سؤال عن استخدام الدروع القشرية في فترة معينة من مصر القديمة. أجاب "GPT-4 Turbo" بنعم، بينما الحقيقة أن هذه التقنية لم تظهر في مصر إلا بعد 1500 عام.
يرجع هذا القصور، وفقًا للباحثين، إلى اعتماد النماذج على بيانات تاريخية بارزة، مما يصعّب عليها استرجاع المعلومات النادرة أو الأقل شهرة.
كما أشار الباحثون إلى وجود أداء أضعف للنماذج في مناطق معينة، مثل إفريقيا جنوب الصحراء الكبرى، مما يبرز التحيزات المحتملة في بيانات التدريب.
اقرأ أيضاً.. الذكاء الاصطناعي يفك شيفرة أصوات الطيور المهاجرة
التحديات المستمرة
وأكد "بيتر تيرتشين"، قائد الدراسة وأستاذ بمعهد علوم التعقيد في النمسا، أن هذه النتائج تُظهر أن النماذج اللغوية لا تزال غير بديل عن البشر في مجالات معينة. ومع ذلك، يبقى الأمل في أن تسهم هذه النماذج في مساعدة المؤرخين مستقبلاً. يعمل الباحثون على تحسين المعيار بإضافة بيانات من مناطق غير ممثلة بشكل كافٍ وتضمين أسئلة أكثر تعقيدًا.
واختتمت الدراسة بالقول: "رغم أن نتائجنا تسلط الضوء على المجالات التي تحتاج إلى تحسين، إلا أنها تؤكد أيضًا الإمكانيات الواعدة لهذه النماذج في دعم البحث التاريخي".
المصدر: وكالات