متابعة بتجــرد: يستغل بعض العاملين في وسائل التكنولوجيا الرقمية الحديثة سهولة تطبيق تقنيات الذكاء الاصطناعي، للعبث بأصوات وصور الناس وحكاياتهم، فالكثيرون وجدوا، بعد فترة، أن هذا الصوت ليس لصاحبه، أو أن هذه الصورة وضعت ببراعة في مكان غير الذي التقطت به.

ومنذ انتشار تقنيات بصمة الصوت، التي تسهل نقل صوت أي شخص، ووضعه على أي فيديو، دون إذن أو علم أو موافقة صاحبه، بدأت منصات التواصل الاجتماعي تعج بالعجائب التي لا يمكن تخيلها، قبل أشهر عدة من الآن.

ويبدو أن نجوم العالم من المشاهير، خاصة الفنانين واللاعبين، صاروا هدفاً لبعض الماركات التجارية، بهدف تسويقها من خلالهم، حيث وقوعوا ضحايا “هكرز تقنيات الذكاء الاصطناعي”، الأمر الذي دفع بعضهم للتصريح، علناً، بعدم مسؤوليتهم عما نشر، باعتباره مشاركة منهم في بعض الإعلانات التجارية.

وآخر هؤلاء النجوم النجمة سكارليت جوهانسون، التي قررت اتخاذ إجراءات قانونية وقضائية، تجاه من استغلوا صوتها للترويج لأحد المنتجات.

وفي التفاصيل، ظهرت نجمة هوليوود في إعلان قصير على موقع “إكس” (تويتر سابقاً)، بواسطة تطبيق لإنشاء صور الذكاء الاصطناعي، يسمى “Lisa AI: 90s Yearbook & Avatar”، وهي تروج أحد منتجات هذا التطبيق، حيث أكد محامو سكارليت، في تصريحات صحافية لموقع مجلة “فاريتي”، أنهم بدؤوا إجراءات فعلية قانونية ضد التطبيق، الذي استغل سهولة استخدام بصمة صوت النجمة العالمية وصورتها، وأنشأ فيديو عبر الذكاء الاصطناعي، تظهر به سكارليت تروج التطبيق، وعملياته التجارية.

وعلى الرغم من أن التطبيق المشار إليه كان قد مسح الفيديو بعد ساعات من بثه، مساء السبت الماضي، فإن محامي سكارليت عازمون، بتوجيه من النجمة، على تصعيد الأمر قضائياً وقانونياً، منعاً لتكرار ما حدث معها مجدداً.

وبحسب موقع المجلة، يبدأ الإعلان المفترض بمشاهد من كواليس فيلمها الشهير “Marvel Cinematic Universe Black Widow”، وتظهر وهي تقول: “كيف حالكم؟.. أنا سكارليت، وأريدكم أن تأتوا معي”.

ويعرض الإعلان، بعدها، صوراً تم إنشاؤها بواسطة الذكاء الاصطناعي للنجمة، مع استمرار صوت مزيف يقلد نبرة سكارليت في ترويج التطبيق.

وكان النجم توم هانكس قد وجد نفسه بوضع مماثل، في وقت سابق من شهر أكتوبر الماضي، إذ أشار عبر صفحته الرسمية على منصة “إكس”، إلى أنه لم يقم بأي إعلان ترويجي لواحدة من عيادات الأسنان في الولايات المتحدة الأميركية، وأنه أراد تحذير معجبيه من الوقوع في هذا الفخ.

main 2023-11-03 Elie Abou Najem

المصدر: بتجرد

كلمات دلالية: الذکاء الاصطناعی

إقرأ أيضاً:

«معلومات الوزراء»: 254.8 مليون شخص استخدموا أدوات الذكاء الاصطناعي في 2023

أصدر مركز المعلومات ودعم اتخاذ القرار بمجلس الوزراء، تحليلاً جديدا تناول من خلاله تقنية التزييف العميق، وذلك بدءًا من زيادة اعتماد المستخدمين على تقنيات الذكاء الاصطناعي، ثم الانتقال إلى مفهوم التزييف العميق، وآليات عمل هذه التقنية، واستخدامات التزييف العميق، والمخاطر الناجمة عنها، وطرق الكشف عنها.

استخدام مجالات التكنولوجيا المختلفة

وأوضح التحليل أن استخدام مجالات التكنولوجيا المختلفة -مثل الحوسبة السحابية والذكاء الاصطناعي والأمن السيبراني أصبح أمرًا مهمًّا في كل مناحي الحياة، بما في ذلك الاتصالات، والصناعة، والتجارة، والتعليم، والطب، والترفيه، وغيرها.

وعلى الرغم من أهمية استخدام التكنولوجيا والفوائد المترتبة عليها، فإنها يقابلها العديد من التحديات التي تتعلق بحفظ الخصوصية، والبيانات المزيفة، ومن بين هذه التحديات استخدام تقنيات التزييف العميق؛ حيث فرضت هذه التقنيات تحديات جديدة تتعلق بالأمان والخصوصية والمصداقية.

زيادة اعتماد المستخدمين على تقنيات الذكاء الاصطناعي تعكس التطور السريع في مجال التكنولوجيا

وذكر المركز أن زيادة اعتماد المستخدمين على تقنيات الذكاء الاصطناعي تعكس التطور السريع في مجال التكنولوجيا وتأثيره العميق في حياتنا اليومية. هذه الزيادة تعكس الثقة المتزايدة في القدرات التي يمكن أن يوفرها الذكاء الاصطناعي في تحسين الكفاءة وتبسيط العمليات في مختلف المجالات.

وبلغ عدد الأشخاص الذين يستخدمون أدوات الذكاء الاصطناعي عالميًّا نحو 254.8 مليون مستخدم عام 2023، أي أكثر من الضعف مقارنة بعام 2020، ومن المتوقع أن يستمر هذا النمو في عدد مستخدمي أدوات الذكاء الاصطناعي، ليتجاوز 700 مليون بحلول 2030.

تقنية التزييف العميق هي تقنية تقوم على صنع صور أو مقاطع فيديو مزيفة باستخدام البرامج الرقمية

وأضاف التحليل أن تقنية التزييف العميق هي تقنية تقوم على صنع صور أو مقاطع فيديو مزيفة باستخدام البرامج الرقمية والتعلم الآلي وتبديل الوجه،  وتعتمد هذه التقنية على دمج الصور لإنشاء لقطات جديدة تصور أحداثًا أو تصريحات أو أفعالًا لم تحدث في الواقع. ومع ذلك هناك صعوبة في معرفة وتحديد مدى صحة أو واقعية هذه الصور والفيديوهات.

وبناءً على ذلك، أصبح الاعتقاد بتوثيق الصوت والفيديو للواقع بأنه دليل على مصداقية البيانات والمعلومات، اعتقاد يشوبه الشك، فقد استغل مجرمو الإنترنت هذه التقنيات في زيادة القدرات الاحتيالية، والتي أصبحت تمثل تهديدات جديدة على مستوى الأفراد والمؤسسات والمجتمعات، سواء من خلال تصنيع المواد الإباحية للتشهير بشخص معين بغرض الانتقام أو الابتزاز، أو من خلال تصنيع ونشر البيانات والتصريحات والمعلومات المضللة لأغراض إثارة الفوضى والاحتيال المالي وإفساد الانتخابات وخلق الأزمات الدبلوماسية.

اختلاف أنواع تقنيات التزييف العميق

وأشار التحليل إلى اختلاف أنواع تقنيات التزييف العميق، والتي يمكن أن تقع في إحدى الفئات الآتية:

١- المحتوى المرئي: استخدام تقنيات التزييف العميق في إنشاء الصور ومقاطع الفيديو، ويمكن أن يتم ذلك من خلال الآتي:

-تبديل الوجه: ركيب الوجه غير الحقيقي على الرأس المستهدف في الصور أو مقاطع الفيديو التي يتم تبديل الوجه بها.

-صور يتم إنشاؤها بالكامل: إنشاء الوجه الجديد بالكامل من البداية ليبدو واقعيًّا بدلًا من تبديل الوجه.

-مقاطع فيديو مزامنة الشفاه: هي مقاطع تظهر شخصًا يؤدي كلمات أو نصًا معينًا بالتزامن مع حركات الشفاه لجعل الأمر يبدو واقعيًّا، وذلك على الرغم من عدم وجود هذا النص في الفيديو الرئيس.

٢- المحتوى الصوتي: ويتم تحريف الصوت وتعديله إما من خلال استخدام ملف صوتي يتضمن حديثًا مزيفًا بنفس صوت الشخص، لكنه لم يقله في الواقع، أو من خلال تعديل نبرة صوت الشخص لإظهار مشاعر أو سلوك غير حقيقي.

وأشار التحليل إلى أن إنشاء فيديوهات التزييف العميق يتم باستخدام نظامين من أنظمة الذكاء الاصطناعي؛ المولد "Generator" والمميز "Discriminator". عندما ينتج نظام المولد فيديو جديدًا، يُرسل إلى نظام المميز لتحديد ما إذا كان الفيديو حقيقيًّا أم مزيفًا. إذا تأكد المميز من أن الفيديو حقيقي، يبدأ المولد في تعلم كيفية إنشاء فيديوهات تبدو أكثر قابلية للتصديق، وهكذا يستمر التطور في العملية.

ويُشكل النظامان معًا ما يُعرف بشبكة الخصومة التوليفية "GNN"، وتتطلب هذه التقنية مخزونًا من الفيديوهات يتم التعديل عليها. في البداية، يحتاج نظام المولد "Generator" إلى تدريب مستمر. وعندما يصل إلى مستوى مقبول من الجودة، يبدأ بإرسال فيديوهاته إلى الـمميّز "Discriminator". كلما زاد ذكاء المولد، زاد ذكاء الـمميّز بالتبعية. وبالتالي، يتم الوصول إلى فيديو معدّل بشكل كامل وقابل للتصديق للعين البشرية. ويوضح الشكل التالي كيفية عمل هذه التقنية.

واستعرض التحليل الاستخدامات الإيجابية التي تمتلكها تقنية التزييف العميق، وفيما يلي أهم هذه الاستخدامات:

-الاستخدامات الطبية والتعليمية: يمكن استخدام تقنية التزييف العميق لإنشاء عمليات محاكاة تفاعلية للعمليات الجراحية أو غيرها من الإجراءات، مما يوفر لطلاب الطب والمهنيين فرص تدريب قيمة. كما يمكن استخدام هذه التقنيات في دعم وتطوير أدوات الوصول المهمة. على سبيل المثال، قامت شركة Lyrebird الكندية باستخدام التزييف العميق لمساعدة مرضى التصلب الجانبي الضموري على التواصل عندما يفقدون قدرتهم على التحدث، وذلك من خلال استنساخ أصواتهم، حيث يمكن للأشخاص الاستمرار في "التحدث" من خلال تقنيات التزييف العميق.

-صناعة الترفيه: يمكن استخدام تقنيات التزييف العميق في صناعة الأفلام والإعلانات وتقديم الأخبار. كما يمكن إنشاء تأثيرات خاصة أكثر واقعية والسماح للممثلين بإعادة تمثيل أدوارهم حتى بعد وفاتهم.

-الصحافة: يمكن أن تساعد تقنية التزييف العميق في إعادة إنشاء الأحداث التاريخية وجذب الانتباه إلى القضايا المهمة. فعلى سبيل المثال، يحاكي مشروع "التعاطف العميق Deep Empathy" - مشروع مشترك بين اليونيسف ومعهد ماساتشوستس للتكنولوجيا- الشكل الذي ستبدو عليه المدن الأخرى إذا واجهت صراعات مماثلة لتلك الموجودة في الأحياء السورية أثناء الحرب. تهدف هذه الصور الاصطناعية لنيويورك ولندن وبوسطن وغيرها من المدن التي دمرتها نفس الظروف المزعزعة للاستقرار إلى إثارة التعاطف مع الضحايا الحقيقيين في جميع أنحاء العالم في سوريا أو مناطق أخرى.

-خدمة العملاء: من خلال خدمة المساعد الافتراضي، الذي يستخدم لتقديم خدمة العملاء في مراكز الاتصال.

 

مقالات مشابهة

  • 5 طرق للكشف عن التزييف العميق لمستخدمي تقنيات الذكاء الاصطناعي
  • «معلومات الوزراء»: 254.8 مليون شخص استخدموا أدوات الذكاء الاصطناعي في 2023
  • الذكاء الاصطناعي يعطل أغنية «أم كلثوم»
  • «كاوست» تطلق برنامجها حول أحدث «تقنيات الذكاء»
  • الأعلى للقضاء.. توظيف الذكاء الاصطناعي لتحسين الخدمات العدلية
  • "كاوست" تطلق برنامجها التدريبي حول أحدث تقنيات الذكاء الاصطناعي
  • «كاوست» تطلق برنامجها التدريبي حول أحدث تقنيات الذكاء الاصطناعي
  • Linky.. إطلاق أول رفيق بالذكاء الاصطناعي في الشرق الأوسط
  • آبل وميتا تدرسان دمج تقنيات الذكاء الاصطناعي في هواتف آيفون
  • مناقشات بين آبل وميتا لدمج تقنيات الذكاء الاصطناعي في هواتف آيفون