«التزييف العميق».. الجانب المظلم للتكنولوجيا الجديدة يهدد مصالح البشر
تاريخ النشر: 18th, August 2023 GMT
فى الوقت الذى يستخدم فيه البعض تقنيات الذكاء الاصطناعى، ومنها تقنية «التزييف العميق» فى شرح العلوم وتبسيطها وخلق الإبداع الفنى وتقديم الفائدة للآخرين، هناك من يستخدمها فى تزييف الحقائق ونشر الأكاذيب لتحقيق أهداف ومصالح شخصية أو إلحاق الضرر بالآخرين من خلال تشويه سمعتهم وابتزازهم.. فما هذه التقنية؟ وكيف تتم؟ وكيف يمكن كشفها ومواجهتها؟
بحسب توضيح خضر غليون، الخبير الدولى فى الذكاء الاصطناعى، فإن «التزييف العميق» أو «Deepfake» هى تقنية متقدمة مثيرة للجدل، يمكنها دمج وتعديل الصور ومقاطع الفيديو والتسجيلات الصوتية بطريقة احترافية للغاية، بحيث يصعب على الشخص العادى تمييزها عن الأصلية، وتعتمد على استخدام الخوارزميات المعقدة وتقنيات الذكاء الاصطناعى، مثل الشبكات العصبية الاصطناعية والتعلم العميق، لاستنساخ أنماط الوجه البشرى وحركاته ونبرات الصوت بدقة متناهية، ما يتيح إمكانية تزييف مقاطع الفيديو أو التسجيلات الصوتية بشكل يبدو وكأنه حقيقى تماماً.
وفى الوقت الذى تتيح فيه تقنية «التزييف العميق» فتح آفاق إبداعية هائلة أمام العاملين فى مجالات عديدة مثل السينما والدعاية والفنون والتعليم والطب، حيث يمكن استخدامها لخلق محاكاة واقعية لتجارب ومواقف قد يصعب إيجادها أو محاكاتها فى الحياة الواقعية، هى أيضاً لها انعكاسات سلبية خطيرة، تشمل نشر الأخبار المزيفة والمعلومات الخاطئة، والتشهير بالأشخاص.
والتلاعب بالحقائق بهدف التضليل والخداع، إذ يمكن لأى شخص ماهر فى استخدام تطبيقات وبرامج التزييف العميق، أن يضع كلمات لم تقل فى فم شخصية عامة، أو يدمج صورة شخص ما فى موقف محرج أو غير أخلاقى، ما قد يلحق أضراراً جسيمة بسمعته ومكانته، دون أن يكون بمقدور الشخص نفسه إثبات زيف تلك المقاطع.
كما كشفت الدكتورة أسماء سعد، المدرس بكلية الحاسبات والذكاء الاصطناعى جامعة مدينة السادات، بعض الاستخدامات السلبية الأخرى لتطبيقات الذكاء الاصطناعى وتقنية «التزييف العميق»، منها التزييف السياسى والاجتماعى، إذ يمكن استخدامها فى تصميم فيديوهات مزيفة للشخصيات السياسية أو العامة بهدف نشر أخبار كاذبة أو تشويه سمعتها، وأيضاً استخدامها فى الاحتيال والتلاعب، بإنشاء مقاطع فيديو مزيفة للقيام بأعمال احتيالية أو التلاعب فى السوق المالية، ما يؤثر على الثقة والأمان فى النظام المالى، إلى جانب أيضاً استخدام سلبى آخر لهذه التقنية وهو الابتزاز والتشهير، باستغلال مقاطع الفيديو المزيفة فى ابتزاز الشخصيات العامة أو الأفراد لتشويه سمعتهم أو الحصول على مكاسب مالية.
ولكشف التزييف العميق فى الصور ومقاطع الفيديو والتسجيلات الصوتية، هناك بعض الطرق التى يمكن اتباعها، منها التأكد من مصدر المعلومات، والتحليل التقنى، وذلك من خلال استخدام تقنيات التحليل الرقمى للكشف عن الجوانب غير الطبيعية فى التزييف العميق، مثل التشويش فى الصورة أو الفيديو، أو عدم تطابق حركة الشفاه مع الكلام المنطوق، كما يمكن أيضاً استخدام تقنيات التعرف على الوجه والتحقق من الهوية للتحقق من صحة الفيديو أو الصورة، ومقارنتها بالبيانات الموثوقة للشخص المقصود، كما يمكن الاعتماد على النمو السريع لتقنيات التعلم الآلى والتعلم العميق التى يمكنها التنبؤ بالمحتوى الزائف فى العديد من مجالات التطبيقات، بما فى ذلك التلاعب بالصور والفيديو.
كما توجد عدة أدوات مختلفة فى تقنيات الذكاء الاصطناعى يمكن من خلالها كشف «التزييف العميق»، منها (forensics - Vue - ai - Clarifai - V7Encord - Kili - Anyline - INTSIG - Google vision AI)، بحسب توضيح الدكتورة رضوى عبداللطيف، خبيرة الذكاء الاصطناعى، إلا أنه ورغم ذلك، فإن اكتشاف التزييف العميق يتطلب جهوداً مشتركة بين الباحثين والمؤسسات الأمنية وشركات التكنولوجيا لتطوير تقنيات جديدة للكشف عن التزييف ومشاركة المعرفة والتجارب، وحتى يتم ذلك لا بد من الحذر واتباع نهج نقدى عند التعامل مع المحتوى الذى يمكن أن يكون مزيفاً، والاعتماد على مصادر موثوقة والتحقق من صحة المعلومات قبل انتشارها.
المصدر: الوطن
كلمات دلالية: الذكاء الاصطناعي ثورة الذكاء الاصطناعي التكنولوجيا الذکاء الاصطناعى التزییف العمیق
إقرأ أيضاً:
أدوات جوجل الجديدة التي تعتمد على الذكاء الاصطناعي لجعل حياتك أسهل
في ظل التوسع العالمي في استخدام تكنولوجيا الذكاء الاصطناعي، تسعى جوجل دائمًا لتطوير أدوات مبتكرة تسهم في تسهيل حياة مستخدميها، وخاصة في مجال البحث والدراسة والإبداع.
في هذا التقرير، نستعرض أبرز الأدوات التي أطلقتها جوجل عبر منصتها Labs.google، والتي تعتمد على الذكاء الاصطناعي لتساعد الطلاب والباحثين في إنجاز مهامهم بوقت أقل وبطرق أكثر إبداعية.
1. أداة «Notebook LM»تم إطلاق Notebook LM في ديسمبر 2023، وتُعد من الأدوات الذكية التي تدعم الذكاء الاصطناعي في عملية البحث والدراسة.
هذه الأداة قادرة على تدوين الملاحظات، تلخيص المقالات والأبحاث، وتقديم الأفكار الرئيسية بشكل مختصر وسهل الفهم.
أحد أبرز ميزات الأداة هو خاصية Audio Overviews التي تحول المستندات إلى ملفات صوتية، مشابهة للبودكاست، ويمكنك طرح أسئلة حول النصوص للحصول على إجابات دقيقة.
بالإضافة إلى أنها تساعد في توليد أفكار جديدة بناءً على المعلومات المدخلة.
2. أداة «Music FX»تعمل Music FX كمؤلف موسيقي ذكي يعتمد على الذكاء الاصطناعي.
من خلال هذه الأداة، يمكنك إضافة موسيقى لمقاطع الفيديو التي تقوم بإنشائها، فقط قم بشرح الفكرة أو الحالة المزاجية التي ترغب فيها، وستقوم الأداة بتوليد مقطوعة موسيقية تتناسب مع وصفك، مع إمكانية اختيار الآلات الموسيقية المفضلة.
3. أداة «Learn About»توفر Learn About طريقة مبتكرة لتعلم مواضيع جديدة بسهولة. هذه الأداة تعتمد على الذكاء الاصطناعي لتبسيط الموضوعات المعقدة، مثل العلوم والفنون والتاريخ، من خلال محادثات تفاعلية.
تعد الأداة أداة بحث تجريبية من جوجل تهدف لتسهيل فهم المعلومات المعقدة بطريقة ممتعة وسهلة.
4. أداة «GenType»تسمح لك أداة GenType بتصميم خطوط كتابية مبتكرة، حيث يمكنك وصف الخط الذي ترغب فيه من حيث الشكل، سمك الحروف، ودرجة ميل الزوايا. الأداة تستند إلى الذكاء الاصطناعي لإنشاء خطوط تتناسب مع الوصف الذي تقدمه.
5. أداة «Illuminate»تمكنك Illuminate من تحويل المواد العلمية المعقدة إلى حوارات تفاعلية ومفهومة. يمكن للطلاب والباحثين الأكاديميين طرح أسئلة صوتية للأداة، والتي ستقوم بالإجابة عليها بشكل تفاعلي لتوضيح النقاط المعقدة.
تعد هذه الأداة مشابهة لـ Audio Overviews في Notebook LM، لكنها تقدم واجهة مستخدم تفاعلية مع إمكانية تعديل الإعدادات لتوليد نتائج متنوعة.
6. أداة «Text FX»تعاونت جوجل مع الفنان الحائز على جائزة Grammy، لو بي فاسكو، لتطوير أداة Text FX، التي تهدف إلى مساعدة الكتاب على استكشاف نصوص جديدة وتعبيرات لغوية مبتكرة.
توفر الأداة مجموعة من الأدوات الإبداعية التي تساعد الكتاب في تحويل الكلمات العادية إلى صور شعرية ومفاهيم غير تقليدية.
7. أداة «ImageFX»أداة ImageFX تعتمد على الذكاء الاصطناعي في توليد الصور باستخدام نموذج Imagen 3.
يمكن للمستخدمين تحويل أفكارهم إلى صور مذهلة عن طريق تغيير الألوان والتفاصيل لتناسب رؤيتهم. توفر الأداة وسيلة مبتكرة لإنشاء صور تعكس بدقة ما في خيال المستخدم.