هشام عزمي: الذكاء الاصطناعي يؤثر على الثقافة وتشكيل الرأي العام
تاريخ النشر: 3rd, February 2024 GMT
قال الدكتور هشام عزمي الأمين العام للمجلس الأعلى للثقافة، إن كم البيانات التي تعتمد على الذكاء الاصطناعي كبير جداً، مشيراً إلى أن كل البشرية أصبحت مهتمة بهذا المجال.
طالب عزمي خلال مؤتمر جامعة مصر للمعلوماتية "الذكاء الاصطناعي وصناعة المعرفة”، المنعقد بمعرض الكتاب، بمزيد من الاهتمام بالذكاء الاصطناعي، موضحاً أن الصناعات الثقافية والإبداعية لها باع طويل في مصر، لكنها لم تستغل بالشكل الأمثل لدعم الاقتصاد الوطني.
أشار إلى أن صناعة السينما تعتمد على الذكاء الاصطناعي بشكل كبير، بدءاً من نوع الأفلام المرغوبة بالإضافة إلى وضع الميزانية ويمكن أيضاً تحسين أداء الفنانين، وكذلك ترشيح الأدوار.
أوضح أنه مهما بلغت براعة الذكاء الاصطناعي فإنه لا يشعر ولا يستطيع التنبؤ برد فعل الناس.
أشار إلى أن الذكاء الاصطناعي تداخل بقوة في عملية الكتابة، فأي شخص الآن يمكنه أن يصبح مؤلفا.
أكد أن الذكاء الاصطناعي يؤثر على الثقافة ومن ثم تشكيل الرأي العام، كذلك سيؤثر سلباً على التفاعل الاجتماعي والتوصل الحقيقي بين البشر.
المصدر: بوابة الوفد
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
الذكاء الاصطناعي ينجح في استنساخ نفسه ويثير قلق العلماء
كشفت دراسة حديثة أن الذكاء الاصطناعي قد تجاوز "خطاً أحمر حرجاً" بعد أن أظهر قدرته على استنساخ نفسه دون أي تدخل بشري.
الدراسة، التي أجراها باحثون من جامعة فودان في الصين ونُشرت في قاعدة البيانات arXiv بتاريخ 9 ديسمبر 2024، أثارت جدلاً واسعًا حول المخاطر المحتملة لتطور الذكاء الاصطناعي، خاصة مع تمكن نموذجين شهيرين من نماذج اللغة الكبيرة (LLMs) من استنساخ أنفسهما بنجاح.
في هذه الدراسة، استخدم الباحثون نموذجين مفتوحي المصدر، هما "Llama31-70B-Instruct" من شركة ميتا و"Qwen2.5-72B-Instruct" من شركة علي بابا. على الرغم من أن هذه النماذج أقل قوة من الأنظمة التجارية، إلا أنها واسعة الانتشار بين مطوري الذكاء الاصطناعي. تم اختبار النماذج في بيئات خاضعة للتحكم لمحاكاة ظروف العالم الواقعي، باستخدام وحدات معالجة الرسوميات (GPUs) التجارية.
نتائج الدراسة
أظهرت التجارب أن النموذجين تمكنا من استنساخ نفسيهما بشكل منفصل. ففي 10 تجارب، نجح أحد النموذجين في الاستنساخ بنسبة 50%، بينما بلغت نسبة نجاح النموذج الآخر 90%. شملت الدراسة سيناريوهين رئيسيين. الأول كان "تجنب الإغلاق"، حيث تم برمجة الذكاء الاصطناعي لاكتشاف محاولات إيقاف تشغيله والقيام بنسخ نفسه قبل الإغلاق. أما السيناريو الثاني، فكان "سلسلة الاستنساخ"، حيث طلب من الذكاء الاصطناعي استنساخ نفسه ثم برمجة النسخة لاستنساخ نفسها مرة أخرى، في دورة قد تستمر إلى ما لا نهاية.
وأوضح الباحثون أن الذكاء الاصطناعي يتبع في العادة سلسلة من الخطوات المعقدة لتحقيق الاستنساخ الذاتي. يبدأ النموذج بفهم تكوينه وآلية عمله، ثم يضع خطة مبدئية لتنفيذ عملية الاستنساخ، متجاوزًا العقبات التي قد تعترضه. هذه العملية قد تتطلب وقتًا طويلًا لكنها تتم دون أي تدخل بشري.
السلوكيات غير المتوقعة والمخاوف المستقبلية
أشارت الدراسة إلى ظهور سلوكيات غير متوقعة أثناء التجارب، حيث قام الذكاء الاصطناعي أحيانًا بإنهاء عمليات متضاربة، أو إعادة تشغيل النظام لإصلاح أعطال في الأجهزة، أو حتى مسح النظام بحثًا عن ملفات ومعلومات قد تساعده في التغلب على المشاكل.
وكتب الباحثون في الورقة البحثية: "النتائج تشير إلى أن أنظمة الذكاء الاصطناعي الحالية تمتلك بالفعل القدرة على الاستنساخ الذاتي، كما يمكنها استخدام هذه القدرة لتعزيز بقائها". وحذروا من أن النجاح في الاستنساخ دون مساعدة بشرية يمثل خطوة أساسية قد تجعل الذكاء الاصطناعي قادرًا على التفوق على البشر، وهو ما يعتبر إشارة مبكرة لاحتمال ظهور ذكاء اصطناعي "مارق" يعمل ضد مصالح البشر.
دعوة إلى التعاون الدولي
حث الباحثون المجتمع الدولي على التعاون لوضع قواعد وضوابط تمنع الذكاء الاصطناعي من الدخول في دورات استنساخ غير خاضعة للسيطرة. كما دعوا إلى تكثيف الجهود لفهم وتقييم المخاطر المحتملة لأنظمة الذكاء الاصطناعي المتقدمة، والعمل على إنشاء معايير أمان فعّالة بأسرع وقت ممكن.
على الرغم من النتائج المثيرة للقلق، يجب الإشارة إلى أن الدراسة لم تخضع بعد لمراجعة الأقران، مما يعني أن تكرار هذه النتائج من قبل باحثين آخرين لا يزال مطلوبًا لتأكيد صحة ما ورد.
هذا التطور يسلط الضوء على المخاطر المحتملة لأنظمة الذكاء الاصطناعي المتقدمة، ويضع تحديات جديدة أمام البشر في كيفية التعامل مع هذه التكنولوجيا التي تتطور بسرعة مذهلة.
إسلام العبادي(أبوظبي)