فى الوقت الذى يستخدم فيه البعض تقنيات الذكاء الاصطناعى، ومنها تقنية «التزييف العميق» فى شرح العلوم وتبسيطها وخلق الإبداع الفنى وتقديم الفائدة للآخرين، هناك من يستخدمها فى تزييف الحقائق ونشر الأكاذيب لتحقيق أهداف ومصالح شخصية أو إلحاق الضرر بالآخرين من خلال تشويه سمعتهم وابتزازهم.. فما هذه التقنية؟ وكيف تتم؟ وكيف يمكن كشفها ومواجهتها؟
بحسب توضيح خضر غليون، الخبير الدولى فى الذكاء الاصطناعى، فإن «التزييف العميق» أو «Deepfake» هى تقنية متقدمة مثيرة للجدل، يمكنها دمج وتعديل الصور ومقاطع الفيديو والتسجيلات الصوتية بطريقة احترافية للغاية، بحيث يصعب على الشخص العادى تمييزها عن الأصلية، وتعتمد على استخدام الخوارزميات المعقدة وتقنيات الذكاء الاصطناعى، مثل الشبكات العصبية الاصطناعية والتعلم العميق، لاستنساخ أنماط الوجه البشرى وحركاته ونبرات الصوت بدقة متناهية، ما يتيح إمكانية تزييف مقاطع الفيديو أو التسجيلات الصوتية بشكل يبدو وكأنه حقيقى تماماً.

وفى الوقت الذى تتيح فيه تقنية «التزييف العميق» فتح آفاق إبداعية هائلة أمام العاملين فى مجالات عديدة مثل السينما والدعاية والفنون والتعليم والطب، حيث يمكن استخدامها لخلق محاكاة واقعية لتجارب ومواقف قد يصعب إيجادها أو محاكاتها فى الحياة الواقعية، هى أيضاً لها انعكاسات سلبية خطيرة، تشمل نشر الأخبار المزيفة والمعلومات الخاطئة، والتشهير بالأشخاص.

والتلاعب بالحقائق بهدف التضليل والخداع، إذ يمكن لأى شخص ماهر فى استخدام تطبيقات وبرامج التزييف العميق، أن يضع كلمات لم تقل فى فم شخصية عامة، أو يدمج صورة شخص ما فى موقف محرج أو غير أخلاقى، ما قد يلحق أضراراً جسيمة بسمعته ومكانته، دون أن يكون بمقدور الشخص نفسه إثبات زيف تلك المقاطع.

كما كشفت الدكتورة أسماء سعد، المدرس بكلية الحاسبات والذكاء الاصطناعى جامعة مدينة السادات، بعض الاستخدامات السلبية الأخرى لتطبيقات الذكاء الاصطناعى وتقنية «التزييف العميق»، منها التزييف السياسى والاجتماعى، إذ يمكن استخدامها فى تصميم فيديوهات مزيفة للشخصيات السياسية أو العامة بهدف نشر أخبار كاذبة أو تشويه سمعتها، وأيضاً استخدامها فى الاحتيال والتلاعب، بإنشاء مقاطع فيديو مزيفة للقيام بأعمال احتيالية أو التلاعب فى السوق المالية، ما يؤثر على الثقة والأمان فى النظام المالى، إلى جانب أيضاً استخدام سلبى آخر لهذه التقنية وهو الابتزاز والتشهير، باستغلال مقاطع الفيديو المزيفة فى ابتزاز الشخصيات العامة أو الأفراد لتشويه سمعتهم أو الحصول على مكاسب مالية.

ولكشف التزييف العميق فى الصور ومقاطع الفيديو والتسجيلات الصوتية، هناك بعض الطرق التى يمكن اتباعها، منها التأكد من مصدر المعلومات، والتحليل التقنى، وذلك من خلال استخدام تقنيات التحليل الرقمى للكشف عن الجوانب غير الطبيعية فى التزييف العميق، مثل التشويش فى الصورة أو الفيديو، أو عدم تطابق حركة الشفاه مع الكلام المنطوق، كما يمكن أيضاً استخدام تقنيات التعرف على الوجه والتحقق من الهوية للتحقق من صحة الفيديو أو الصورة، ومقارنتها بالبيانات الموثوقة للشخص المقصود، كما يمكن الاعتماد على النمو السريع لتقنيات التعلم الآلى والتعلم العميق التى يمكنها التنبؤ بالمحتوى الزائف فى العديد من مجالات التطبيقات، بما فى ذلك التلاعب بالصور والفيديو.

كما توجد عدة أدوات مختلفة فى تقنيات الذكاء الاصطناعى يمكن من خلالها كشف «التزييف العميق»، منها (forensics – Vue – ai – Clarifai – V7Encord – Kili – Anyline – INTSIG – Google vision AI)، بحسب توضيح الدكتورة رضوى عبداللطيف، خبيرة الذكاء الاصطناعى، إلا أنه ورغم ذلك، فإن اكتشاف التزييف العميق يتطلب جهوداً مشتركة بين الباحثين والمؤسسات الأمنية وشركات التكنولوجيا لتطوير تقنيات جديدة للكشف عن التزييف ومشاركة المعرفة والتجارب، وحتى يتم ذلك لا بد من الحذر واتباع نهج نقدى عند التعامل مع المحتوى الذى يمكن أن يكون مزيفاً، والاعتماد على مصادر موثوقة والتحقق من صحة المعلومات قبل انتشارها.

الوطن نيوز

المصدر: موقع النيلين

كلمات دلالية: الذکاء الاصطناعى التزییف العمیق

إقرأ أيضاً:

الصين تستهدف مكافحة إساءة استخدام الذكاء الاصطناعي

كشفت الهيئة الوطنية الصينية للفضاء السيبراني، عن خطط لتوجيه العمل لمكافحة إساءة استخدام الذكاء الاصطناعي كمحور رئيسي لحملة وطنية لعام 2025، لمعالجة سوء السلوك عبر الإنترنت.
وأضافت الهيئة، أن التدابير المقترحة المتعلقة بالذكاء الاصطناعي، ستُعزز الرقابة على المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، وفرض وضع العلامات الواضحة على المواد الاصطناعية، وفرض عقوبات على استخدام الذكاء الاصطناعي لنشر معلومات مضللة أو التلاعب بالرأي العام، من خلال ما يُعرف بـ"جيش المياه عبر الإنترنت"، الذي يشير إلى مجموعات من مستخدمي الإنترنت الذين يتقاضون رواتبهم مقابل نشر التعليقات عبر الإنترنت.
وأشارت إلى أنه من المقرر أن تطلق الهيئة عملية "تشينغلانغ" لعام 2025، وهي مبادرة سنوية تم إطلاقها في السنوات الأخيرة لتوفير بيئة أنظف وأكثر أماناً عبر الإنترنت.
وتشمل الأهداف الرئيسية الأخرى لعملية 2025، الحد من المعلومات المضللة التي ينشرها المؤثرون على وسائل التواصل الاجتماعي، ومكافحة التسويق الضار على منصات الفيديوهات القصيرة، ومعالجة الشائعات التي لم يتم التحقق منها، والتي تضر بالشركات، وحماية القاصرين عبر الإنترنت.

أخبار ذات صلة مزاد لإبداع الذكاء الاصطناعي «مادة كيميائية» لتثبيت الرمال المتحركة المصدر: وام

مقالات مشابهة

  • وداعًا للمصورين: الذكاء الاصطناعي يهدد الملايين من الوظائف
  • هل يهدد الذكاء الاصطناعي قدراتنا العقلية؟ دراسة تحذر من "كسل وغباء" البشر
  • تعزيز الابتكار في صناعة المحتوى للكفاءات السعودية.. 30 متدرباً في تقنيات الذكاء الاصطناعي بالإعلام
  • معلمون يسلطون الضوء على تعزيز الاستفادة من تقنيات الذكاء الاصطناعي في التعليم
  • هل يشيخ الذكاء الاصطناعي كالبشر؟ خفايا التقادم الرقمي
  • الصين تستهدف مكافحة إساءة استخدام الذكاء الاصطناعي
  • علماء صينيون يكتشفون فيروس جديداً بالخفافيش
  • محمد مغربي يكتب: تداعيات «DeepSeek».. انقلاب في عالم الذكاء الاصطناعي
  • اتحاد الكرة يهدد بفسخ التعاقد مع الشركة المسئولة عن تطبيق تقنية الفيديو
  • هل تدخل الهند مضمار الذكاء الاصطناعي بعد أن أصبحت مركزا للتكنولوجيا العالمية؟