أغنية «مش سليم» للفنان حمزة نمرة تحقق المليون الأول على «يوتيوب»
تاريخ النشر: 19th, August 2023 GMT
تخطت أغنية «مش سليم» للفنان حمزة نمرة، حاجز المليون مشاهدة بعد طرحها في الـ48 ساعة الماضية، على موقع الفيديوهات «يوتيوب»، والمنصات السمعية والإلكترونية، وتصدرت تريند يوتيوب وقائمة الأعلى استماعًا ومحركات البحث، وتداول كلماتها على نطاق واسع على منصات السوشيال ميديا المختلفة.
أغنية «مش سليم» من ألحان حمزة نمرة وأندريه مينا، وكلمات محمد فاروق، توزيع وميكساج أندريه مينا، تنفيذ وتريات أحمد عاطف، وظهر «نمرة» خلال فيديو كليب الأغنية بمفرده، وهو الأمر الذي اعتاد عليه في كليباته السابقة وعدم الاستعانة بآخرين بصحبته.
ومن كلمات أغنية مش سليم للفنان حمزة نمرة: «جزء كان تعبان وخف.. وجزء لسه للأسف.. كان زمان عفريت دفنته.. بعد فترة رجع لي ألف.. مش يا ماضي لسه سايبك.. ايه بقى تاني اللي جايبك.. كنت ماشي خلاص كويس.. مرة واحدة شريطي سف».
ألبوم رايق يضم 13 أغنيةوكان حمزة نمرة قرر طرح أغاني ألبوم «رايق» الذي يضم 13 أغنية في موسم صيف 2023، من خلال طرح كل أغنية أو أكثر مساء يوم الأربعاء، وقدم حتى الآن نحو 8 أغنيات أبرزها: غروب، رياح الحياة، إسكندرية، لعله خير.
المصدر: الوطن
كلمات دلالية: حمزة نمرة أغنية حمزة نمرة أغنية حمزة نمرة مش سليم مش سلیم
إقرأ أيضاً:
«الجريمة الكاملة».. قناة يوتيوب أمريكية تثير الذعر بفيديوهات ذكاء اصطناعي
زعمت إحدى قنوات YouTube الشهيرة في الولايات المتحدة أنها تعرض جرائم حقيقية غير أخلاقية، مع إضافة بعض الصور لتأكيد مصداقيتها، وبعد أن حصدت هذه الفيديوهات ملايين المشاهدات، اكتشف المحققون أن هذه المقاطع صُنعت بواسطة الذكاء الاصطناعي، وأن هذه الجرائم وهمية ولم تحدث على أرض الواقع.
وفقًا لموقع «fastcompany»، جذبت قناة يوتيوب أمريكية تسمى «true crime» ملايين المشاهدين إليها، زاعمة أنها تعرض جرائم حقيقية حدثت على أرض الواقع، واستخدمت عناوين جاذبة، واستخدمت صورًا تمت صناعتها بالذكاء الاصطناعي، فبعد أن روى صاحب القناة تفاصيل الجريمة الوهمية، وأنها ليتلتون بولاية كولورادو، ووصل الفيديو إلى مليوني مشاهدة، تواصل بعض المشاهدين مع مراسلة محلية تدعى إليزابيث هيرنانديز، لتتحقق من سجل هذه الجريمة.
كانت الصدمة عندما اكتشف أن هذه الجريمة لم تحدث أبدًا، وأن الصور المستخدمة أُنشئت باستخدام تطبيق شات جي بي تي، كما وُجد أكثر من 150 مقطع فيديو مشابه، تم تحميلهم على القناة في العام الماضي، تستخدم نفس العناوين، وحصدت آلاف المشاهدات.
برر بول لارسون، صاحب القناة، تقديمه لهذا النوع من المحتوى، قبل أن يتم غلق حسابه: «الجرائم الحقيقية.. في نهاية المطاف، هي شكل من أشكال الترفيه. لا يشاهد المشاهدون هذا المسلسل لكي يطلعوا على أمور قد تؤثر عليهم شخصيًا. إنهم موجودون هناك فقط للترفيه والاستمتاع بغموض مثير مع بعض العناصر المروعة».
مخاطر الفيديوهات المصنوعة بالذكاء الاصطناعيوفقًا لمجلة «فوربس»، فمقاطع الفيديو تشكل أكثر من 80% من حركة الإنترنت، ولكن من بين ملايين الفيديوهات هذه لا نعرف بالضبط أيًا منها حقيقي أو مزيف، ففي عام 2023، بلغت قيمة سوق الفيديو المُنتج بواسطة الذكاء الاصطناعي نحو 555 مليون دولار ومن المتوقع أن تتضاعف أربع مرات تقريبًا لتصل إلى 1.96 مليار دولار خلال السنوات الخمس المقبلة.
تشكل هذه الفيديوهات مخاطر كبيرة، وتسبب ذعرا للكثير من الأشخاص الذين لا يستطيعون التفريق بين ما هو مزيف وواقعي، فبحسب كارين بانيتا، زميلة معهد مهندسي الكهرباء والإلكترونيات وأستاذة الهندسة الكهربائية والحاسوبية في جامعة تافتس: «أقل من 30 في المائة من عامة الناس البالغين يفهمون ما يمكن أن يفعله الذكاء الاصطناعي. لذا، إذا قمت بنشر بعض المعلومات المضللة لعامة الناس بعنوان مخيف، فسوف يصاب الكثير من الناس بالذعر».
وفقًا لموقع معهد «ماساتشوستس للتكنولوجيا»، وهو جامعة بحثية خاصة في كامبريدج، يمكنك أن تحمي نفسك من الوقوع في فخ تصديق هذه الفيديوهات المزيف عن طريق:
- انتبه إلى الوجه وتحولاته الغريبة.
- انتبه إلى الخدين والجبهة.
- انتبه إلى شعر الوجه أو عدم وجوده.
- انتبه إلى الشامات الموجودة على الوجه.
- انتبه إلى الرمش.
- انتبه لحركات الشفاه.