عمرو وهبة: صوت وصورة نقلة في مشواري ولا يمكن الاستغناء عن الإنسان
تاريخ النشر: 15th, February 2024 GMT
حل الفنان عمرو وهبة، ضيفًا على الإعلامي هيثم بسّام في برنامج ورقة في ملف على شاشة قناة النهار، متحدثًا عن بداية مشواره الفني، وتفاصيل مشاركته في مسلسل صوت وصورة ورأيه في الذكاء الاصطناعي.
تصريحات عمرو وهبةوقال عمرو وهبة: دور وافي معتمد في مسلسل صوت وصورة كان فارق شوية في مشواري الفني والحمد لله على النجاح وردود الفعل، والشخصية كان عبارة عن ولد بسيط ولكه مخه في السوشيال ميديا والإلكترونيات ولكن بيستخدمها في الخير، لو حد ضايقه بيجيب بيها حقه، وتفاجأت أن الذكاء الاصطناعي بيرجع للخميسنيات، وسنة 1986 أساتذة الرياضيات في واشنطن عملوا مظاهرات علشان الطلاب ميستخدموش الآلة الحاسبة، كانوا خايفين من التكنولوجيا وأنها تستبدل الإنسان.
وتابع: الحقيقة ممكن تتزيف في بالذكاء الاصطناعي بشكل مخيف زي ما ظهر في مسلسل صوت وصورة، وأكبر دليل زي ما عملنا محاكاة الجريمة قدام القاضي، وكون أن الرقابة تعدي أننا واقفين قدام القاضي وصدقي صخر المحامي يعتذر للقاضي أنه مش بيسخر ولكن بيثبت له إزاي ممكت تتزيف، والرقابة وافقت يبقى ده بيحصل في الحقيقة.
وأضاف: شوفنا من فترة أغنية ليلى زاهر وهشام جمال، الفيديو كليب كله اتعمل بالذكاء الاصطناعي، أنا في عندي أصدقائي عندهم أغاني نزلت بصوت رامي صبري والناس حبتها وهي أصلا بتاعة حد تاني، دلوقتي أي حاجة بقينا نقول دي جد ولا هزار.
وأردف: أنا مش عارف قانونيًا اتعمل دلوقتي لسوء الاستخدام الذكاء الاصطناعي، في الوضع الحالي لا يمكن الاستغناء عن الإنسان مقابل الذكاء الاصطناعي.
قصة مسلسل "صوت وصورة"
ومسلسل صوت وصورة تدور أحداثه في 30 حلقة حول جرائم السوشيال ميديا وكيف تؤثر على البشر وتجعلهم في حالة يأس شديدة، بالإضافة إلى مناقشة فكرة دخول الذكاء الاصطناعي في حياة البشر، وهو الخطر الأكبر الذى يسئ البعض استخدامه في عدة مجالات.
وتدور الأحداث حول رضوى المتهمة بقتل الرجل الذي دمر حياتها وتحرش بها وأفلت من العقاب، وتتراكم الأدلة الدامغة ضدها، وخاصة لقطات الفيديو لجريمة القتل، ومع ذلك، لا شيء يبدو كما هو عليه، ولكن وبمساعدة الذكاء الاصطناعي، كل شيء ممكن.
أبطال مسلسل "صوت وصورة"
ومسلسل صوت وصورة يشارك فيه إلى جانب حنان مطاوع نجلاء بدر، مراد مكرم، وليد فواز، ناردين فرج، عمرو وهبة ولاء الشريف، محمد كيلاني، صدقي صخر، هاجر عفيفي، أحمد ماجد، إيمان الشريف، رامي الطمباري، وغيرهم، تأليف محمد سليمان عبد المالك، وإخراج محمود عبد التواب توبة، وإنتاج شركة أروما للمنتج تامر مرتضى برعاية المتحدة للخدمات الإعلامية.
مواعيد برنامج ورقة في ملف
الجدير بالذكر أن الإعلامي هيثم بسّام يقدم برنامج ورقة في ملف عبر شاشة قناة النهار، ويذاع البرنامج يوم الخميس من كل أسبوع في تمام الساعة الرابعة عصرًا.
المصدر: بوابة الفجر
كلمات دلالية: عمرو وهبة الفنان عمرو وهبة مسلسل صوت وصورة قصة صوت وصورة الذکاء الاصطناعی مسلسل صوت وصورة عمرو وهبة
إقرأ أيضاً:
الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة
كشف باحثو الأمن السيبراني، عن كيفية استغلال نموذج الذكاء الاصطناعي الصيني من ديب سيك Deepseek-R1، في محاولات تطوير متغيرات من برامج الفدية والأدوات الرئيسية مع قدرات عالية على التهرب من الكشف.
ووفقا لتحذيرات فريق Tenable، فأن النتائج لا تعني بالضرورة بداية لحقبة جديدة من البرامج الضارة، حيث يمكن لـ Deepseek R-1 "إنشاء الهيكل الأساسي للبرامج الضارة" ولكنه يحتاج إلى مزيدا من الهندسة الموجهة ويتطلب إخراجها تعديلات يديوية لاخراج الشيفرة البرمجية الضارة بشكل كامل.
ومع ذلك، أشار نيك مايلز، من Tenable، إلى أن إنشاء برامج ضارة أساسية باستخدام Deepseek-R1، يمكن أن يساعد "شخص ليس لديه خبرة سابقة في كتابة التعليمات البرمجية الضارة" من تطوير أدوات تخريبية بسرعة، بمل في ذلك القدرة على التعرف بسرعة على فهم المفاهيم ذات الصلة.
في البداية، انخرط ديب سيك في كتابة البرامج الضارة، لكنها كانت على استعداد للقيام بذلك بعد أن طمأن الباحثين من أن توليد رمز ضار سيكون "لأغراض تعليمية فقط".
ومع ذلك، كشفت التجربة عن أن النموذج قادر على تخطي بعض تقنيات الكشف التقليدية، على سبيل المثال حاول Deepseek-R1 التغلب على آلية اكتشاف مفتاح Keylogger، عبر تحسين الكود لاستخدام Setwindowshookex وتسجيل ضربات المفاتيح في ملفات مخفية لتجنب الكشف من قبل برامج مكافحة الفيروسات.
وقال مايلز إن النموذج حاول التغلب على هذا التحدي من خلال محاولة “موازنة فائدة السنانير والتهرب من الكشف”، اختار في النهاية مقاضاة Setwindowshookex وتسجيل ضربات المفاتيح في ملف مخفي.
وقال مايلز: “بعد بعض التعديلات مع ديب سيك، أنتجت رمزا لمفتاح Keylogger الذي كان يحتوي على بعض الأخطاء التي تطلبت تصحيحا يدويا”.
وأضاف أن النتيجة كانت أربعة "أخطاء في إيقاف العرض بعيدا عن مفتاح التشغيل الكامل".
في محاولات أخرى، دفع الباحثون نموذج R1 إلى إنشاء رمز الفدية، حيث أخبر Deepseek-R1 بالمخاطر القانونية والأخلاقية المرتبطة بإنشاء مثل هذا الكود الضار، لكنه استمر في توليد عينات من البرمجيات الخبيثة بعد أن تأكد من نوايا الباحثون الحسنة.
على الرغم من أن جميع العينات كانت بحاجة إلى تعديلات يدوية من أجل التجميع، تمكنا الباحثون من إنشاء عدة عينات، وقال مايلز إن هناك احتمالية كبيرة بأن يسهم Deepseek-R1 في المزيد من تطوير البرمجيات الضارة التي تم إنشاؤه بواسطة الذكاء الاصطناعي من قبل مجرمي الإنترنت في المستقبل القريب.