التزييف العميق.. جريمة جديدة ترتكبها أذرع الذكاء الاصطناعي
تاريخ النشر: 3rd, September 2023 GMT
تحقيق: محمد إبراهيم
كيف ستكون ردة فعلك إذا فوجئت بظهورك في تقرير مصور بإحدى القنوات التلفزيونية دون أن تعرف عنه شيء، أو حتى تم استغلال صوتك ووجهك في محتوى مجهول؟ وماذا لو شاهدت نفسك وأنت تسير في شوارع بلد لم تذهب إليه من قبل؟
العقل والمنطق يرفضان تلك التساؤلات لاستحالة حدوثها، لكن في عصر التقنيات المتقدمة لا يوجد مستحيل؛ إذ إن نبرة صوتك وملامح وجهك وتعبيراتك، أصبحت أهدافاً سهلة لتقنيات وخوارزميات التزييف العميق «deepfake»، بقدراته التي طمس الخطوط الفاصلة بين الواقع والتلفيق.
«الخليج» تكشف في هذا التحقيق أشهر مواقع التزييف، وتستعين بالخبراء للتعرف إلى هذا العالم المعقد وتداعياته وآثاره الاجتماعية، وكذلك استراتيجيات الوقاية منه.
منذ سنوات قليلة انتشرت تقنية التزييف العميق، لكنها انتشرت بسرعة فائقة، تتناسب مع سرعة التطور التكنولوجي الذي يعيشه عالمنا الآن، وتكشف أرقام وإحصاءات حديثة حجم الاستخدام الضخم لتطبيقات التزييف العميق عالمياً؛ إذ بلغ إجمالي الاستثمار في تقنياته ما يقارب 200 مليون دولار في عام 2022 وفقاً لتقرير «باتش بوك»، وتصدرت شركة «ران واي» الأمريكية قائمة المستفيدين من تمويل تكنولوجيا التزييف العميق.
ويعد تطبيق ديب سيويب «Deep swap» أشهر تطبيقات التزييف العميق المستخدمة؛ إذ إن لديه أكثر من 150 مليون مستخدم نشط، ينافسه تطبيق فيس ماجيك «Face Magic»، الذي تم تحميله 100 مليون مرة في عام 2022.
ويرى خبراء الذكاء الاصطناعي، أن التزييف العميق، يعد تطوراً طبيعياً لتقنيات الذكاء الاصطناعي، ولديه جوانب إيجابية ومفيدة كثيرة، عند توظيفها بشكل صحيح، محذرين من انتشاره في المجتمعات من دون ضوابط وتشريعات محكمة، ما يتسبب بمخاطر وعواقب وخيمة تضر بالمجتمع أفراداً ومؤسسات.
فيما يؤكد خبراء في الأمن المعلوماتي، أهمية التطوير المستمر في وسائل الأمن السيبراني، لمواجهة عمليات القراصنة الذين يعتمدون في اختراقاتهم وهجماتهم على تقنيات التزييف العميق للسيطرة على الشبكات والشركات، معتبرين أن ممارسات الأمن السيبراني الأساسية حاسمة في التخفيف من المخاطر.
في المقابل، أكدت شريحة مجتمعية مختارة من فئات مختلفة، إدراكها لجرائم سرقة الصور وصناعة الفيديوهات المفبركة، لكنها على الرغم من ذلك لا تعلم ماهية التزييف العميق وتقنياته وآثاره وأبعاده، واقتصرت وسائل الحماية لديهم على إخفاء صورهم على مواقع التواصل الاجتماعي، وحجب الكاميرا في الهواتف وأجهزة الكمبيوتر.
أما المتخصصون في القانون يؤكدون أن هذه التطورات ينبغي أن يقابلها تطورات تشريعية مماثلة في مواد القانون وتغليظ العقوبات لكبح التجاوزات والجرائم التي قد تجلبها تقنيات الذكاء الاصطناعي.
الصورةمحتوى مخادع
البداية كانت في وقفة ل«الخليج» مع ماهية التزييف العميق، الذي يشمل مجموعة من التقنيات المتقدمة وخوارزميات الذكاء الاصطناعي (AI ) للتعامل مع مقاطع فيديو حقيقية، واستبدال صورة شخص بآخر، لإنشاء محتوى مخادع ومفبرك بدرجة عالية، ويمكن استخدامها لأغراض ترفيهية غير ضارة، وكذلك لأغراض خبيثة، مثل إنشاء أخبار مزيفة أو نشر دعاية ومعلومات مضللة، أو التلاعب بالتصورات أو تشويه سمعة الأفراد والشخصيات.
وتتضمن بعض الأشكال البارزة للتزييف العميق، التلاعب الصوتي وإنشاء النصوص المزيفة بأسماء الأشخاص ونشرها على مواقع التواصل الاجتماعي بغرض التشهير والإضرار بالسمعة، إضافة إلى تحرير الصور والتضليل الوبائي وتقويض الثقة والتلاعب السياسي.
أبعاد ومخاطر
يشرح الدكتور محمد عبد الظاهر أستاذ الإعلام والذكاء الاصطناعي، الرئيس التنفيذي لمؤسسة صحافة الذكاء الاصطناعي، أبعاد مخاطر التزييف العميق وأكثر المجالات المستهدفة ومدى تأثيره فيها، حيث يستهدف الأفراد والمؤسسات، وتمتد تداعياته إلى 6 قطاعات متنوعة، أبرزها الصحافة والإعلام، حيث يقوض التزييف العميق مصداقية الصحافة عبر طمس الخط الفاصل بين التقارير الحقيقية والمحتوى الملفق.
وأضاف أن التزييف العميق يؤثر سلباً في صناعة الترفيه؛ إذ يغير المناظر الطبيعية ويتلاعب في الواقع الإبداعي للجوانب الترفيهية، كما يمكن أن يؤدي التلاعب بالأدلة الصوتية أو المرئية إلى الإضرار بالإجراءات القانونية، ما يعيق السعي إلى تحقيق العدالة، كما يؤدي المحتوى المزيف الذي يسيء إلى المنتجات أو العلامات التجارية إلى خسائر مالية وإضرار بالسمعة، وينبه أن الأضرار السياسية لهذا التزييف قد تضر بالدول والدبلوماسيين، أما أهم أضراره الاجتماعية تلك التي تركز على سرقة الهوية والاحتيال، مثل الصور التي انتشرت مؤخراً عن اعتقال الرئيس الأمريكي السابق دونالد ترامب، وحذرت منها صحيفة «واشنطن بوست» الأمريكية.
فوائد الاستخدام
أفاد د. محمد عبد الظاهر، بأنه كما أن هناك مخاطر لاستخدام تقنيات التزييف العميق يوجد أيضاً فوائد لها، ففي المجال السينمائي وصناعة الأفلام يمكن أن تساعد هذه التقنية في إنشاء وتصوير المزيد من المشاهد الصعبة بسهولة وبكلفة أقل وإتقاناً أكبر، كما أنها تقلص المدة الزمنية اللازمة للتصوير، وهذا بالتالي يؤدي إلى تقليل تكاليف الإنتاج وزيادة الأرباح.
وأشار إلى أن هذه التقنيات، ستكون حاضرة بقوة في مجال التسويق، أما بالنسبة للإعلام، فإن استخدام هذه التقنيات يمكن الوسائل الإخبارية من تصوير المذيع على أنه هو الذي يقدم النشرة الإخبارية، بينما هو في الحقيقة في إجازة مرضية مثلاً أو غير قادر على أداء عمله، معتبراً أن هذه التقنيات تشكل مستقبل المحتوى ويمكن استخدامها على نطاق واسع وإيجابي بعيداً عن صناعة الأخبار المزيفة وبطريقة مسؤولة مفيدة.
التعلم الآلي
الدكتور طلال شيخ، الأستاذ المشارك مدير الدراسات الجامعية لكلية الرياضيات وعلوم الكمبيوتر، بجامعة هيريوت وات دبي، يتحدث عن آليات عمل تلك التقنيات قائلًا، إنه يتم استخدام نموذجين للتعلم الآلي في جيل التزييف العميق، يستخدم أحدهما مجموعة من مقاطع الفيديو لإنشاء مقاطع فيديو مزيفة، بينما يحاول الآخر معرفة ما إذا كان الفيديو مزيفاً أم لا، وعندما يتعذر هذا النموذج في كشف التزييف، فمن المحتمل ألاّ يتمكن المشاهد البشري من معرفة أي منهما.
وأوضح أن أهم المخاطر في ظهور تقنيات التزييف العميق، ما يصاحبها من تلفيقات عالية الجودة، يتم وضعها في مجموعة متنوعة من الاستخدامات الخبيثة مع إمكانية تهديد أمننا أو حتى التلاعب وإلحاق الأضرار بنزاهة العديد من القرارات الاستراتيجية عبر الدول، حيث تستخدم في الغالب لتلفيق الادعاءات ونشر الدعاية، وعندما تصبح مقاطع الفيديو المزيفة شائعة، يميل الناس إلى تداولها ونشرها دون النظر إلى العواقب الوخيمة.
أساليب جديدة
أفاد د. طلال شيخ، بأنه يوجد هناك عدد من الأساليب الجديدة التي تسهل الآن على صانعي الفيديو اعتماد محتواهم وعملهم، كما يمكن استخدام تقنية تشفير لإضافة «hashes» على فترات زمنية محددة مسبقاً عبر الفيديو، ومن الممكن إنشاء بصمة رقمية غير قابلة للتغيير لمقاطع الفيديو.
وأكد الأستاذ المشارك بجامعة هيريوت وات دبي، أن التكنولوجيا ليست هي الطريقة الوحيدة للحماية من التزييف العميق، وتعد أساليب الأمان الأساسية هي الركيزة الرئيسية لمكافحة هذا النوع من التزييف، فضلاً عن أهمية تثقيف المجتمع بمختلف فئاته بشكل عملي، لتمكينهم من التعامل مع الذكاء الاصطناعي وما تفرزه حالات التزييف العميق، والقدرة على التفرقة بين المحتوى الحقيقي والمفبرك من خلال مهارات بسيطة وأسس ثابتة.
المزيد من التثقيف
في لقاء مع شريحة مجتمعية ضمت كلاً من سعيد الطنيجي ومحمد عصام وشما حمد وأماني عبد الله، أكدوا انتشار ظاهرة سرق الصور وصناعة الفيديوهات المفبركة باستخدام التقنيات الحديثة والذكاء الاصطناعي في الفترة الأخيرة، لافتين إلى أنه لم يكن لديهم وسيلة للحماية أفضل من عدم استخدام الصور الشخصية على مواقع التواصل الاجتماعي، وإخفائها على الهواتف الذكية وعدم تمكين الكاميرا على أجهزة الكمبيوتر.
وأشاروا إلى أنهم ليس لديهم أي معرفة بالتزييف العميق، فضلاً عن تواضع قدراتهم على مواجهة تلك التقنيات، حيث إنها مجهولة مكوناتها وآليات الاستخدام لديهم، ويكفيهم اتباع توجيهات الجهات المعنية عند التعرض للجرائم الإلكترونية أو أضرار التزييف العميق.
استراتيجيات الوقاية
في النهاية أجمعت آراء الخبراء والمتخصصين، على أهمية استحداث 5 استراتيجيات للوقاية؛ إذ إن معالجة خطر التزييف العميق تتطلب اتباع نهج شامل يركز على الاستفادة من التكنولوجيا ومحو الأمية الإعلامية والتنظيم، على أن يركز الباحثون على تطوير خوارزميات ذكاء اصطناعي يمكنها اكتشاف التزييف العميق، ما يساعد على تحديد المحتوى المزيف، وهنا ستكون التقنيات المضادة رادعاً يجعل هناك صعوبة في إيجاد فرص لإنشاء محتوى مزيف.
وأكدوا أهمية محو الأمية الإعلامية؛ إذ تؤدي حملات التثقيف والتوعية دوراً حيوياً في تمكين الأفراد من تقييم المحتوى بشكل نقدي، وتعليم أفراد المجتمع كيفية التعرف إلى نقاط التلاعب والتعامل معها، فضلاً عن ضرورة توفير منصات التحقق من صحة المعلومات، على أن تدمج أدوات التحقق التي تقيم مصداقية المحتوى قبل نشره، وتشجيع المبدعين على تصنيف محتواهم وبيان ما إذا كان قد تم التلاعب به لتحسين الشفافية والمساءلة.
اختلاف الكلفة
تختلف كلفة إنشاء تقنية التزييف العميق اختلافاً كبيراً عن غيرها من التقنيات، استناداً إلى عوامل مثل تعقيد المعالجة وجودة النتائج المطلوبة والأدوات والتقنيات المستخدمة، وقد لا تقتصر الكلفة على إنشاء تقنية التزييف العميق نفسها فحسب؛ بل تتضمن أيضاً تطوير التكنولوجيا والأبحاث الأساسية لتحسين دقتها ومصداقيتها.
إهانات وإزعاجات
أستخدمت تقنيات التزييف العميق في بداية ظهورها للتسلية أو السخرية من النجوم، وكان من السهل معرفة الفيديو الحقيقي من المزيف لعدم الواقعية، وعند تطورها وانتشارها تسببت بظهور حالات كثيرة من إساءة السمعة واتهام النساء في مجال الصحافة بمشاهد غير أخلاقية في الهند وبعض الدول العام الماضي، واستمرت محاولات نشر الأكاذيب الموثقة بفيديوهات، وارتفع معدل الإهانات والإزعاجات عبر الإنترنت بشكل ملحوظ.
ماذا تفعل؟
بتوجيهات من الفريق سمو الشيخ سيف بن زايد آل نهيان، نائب رئيس مجلس الوزراء وزير الداخلية، تم إنشاء خطة المحافظة على جودة الحياة الرقمية بالتعاون مع وزارة الداخلية والبرنامج الوطني للسعادة وجودة الحياة، والهيئة العامة لتنظيم قطاع الاتصالات، لتقديم النصح والمشورة، ويستطيع كل من تعرض للتزييف العميق، التواصل مع الجهات المعنية عبر الهاتف المجاني (80091).
مها الجسميأهمية التشريعات
أكدت المستشارة القانونية مها الجسمي، أهمية التشريعات لمواجهة التحديات المعقدة التي يفرضها التزييف العميق، حيث القوانين تجرم إنشاء وتوزيع محتوى مزيف أو تم التلاعب به بنية ضارة، كما حددت أيضاً مسؤولية المنصات والأفراد المشاركين في صناعة أو نشر المحتوى المفبرك.
وأشارت إلى أهمية التشريعات لحماية الحقوق؛ إذ إن الأطر القانونية تحمي حقوق الأفراد، وتضمن عدم استغلال صورهم وهوياتهم لأغراض شائنة، فضلاً عن أهمية التعاون على المستوى العالمي وتضافر جهود الحكومات للتصدي لهذه التجاوزات المتوقعة بسبب تقنيات التزييف العميق. وأفادت بأن أي تطور تكنولوجي ينبغي أن يقابله تحديثات وتطورات في مواد القانون، لردع المخالفين وتحجيم المخاطر والتجاوزات المتوقعة، معتبرة أن التزييف العميق نتيجة طبيعية لتطورات الذكاء الاصطناعي المتوالية خلال السنوات القليلة الماضية.
المصدر: صحيفة الخليج
كلمات دلالية: فيديوهات الذكاء الاصطناعي تحقيق الخليج تحقيق الذکاء الاصطناعی
إقرأ أيضاً:
من الوكلاء إلى الهلوسات.. هكذا تطور الذكاء الاصطناعي في 2024
شهد عام 2024 تطورات بارزة في مجال الذكاء الاصطناعي، خاصة في نماذج اللغة التي أصبحت أكثر دقة وكفاءة؛ فمن النماذج الصغيرة ذات القدرات المذهلة إلى معالجة الهلوسات وصولاً إلى ظهور وكلاء الذكاء الاصطناعي، يبرز هذا العام بوصفه نقطة تحول كبيرة في هذا المجال.
النماذج الصغيرةعلى الرغم من أن نماذج اللغة الكبيرة (LLMs) مثل ChatGPT تعتمد على مئات المليارات من المقاييس لتقديم أداء شبيه بالبشر، فإن عام 2024 شهد طفرة في النماذج الصغيرة، التي تتمتع بكفاءة أكبر وموارد أقل.
هذه النماذج، مثل Phi-3 وPhi-4 من مايكروسوفت وLlama-3.2 من ميتا، تُعد أدوات مرنة يمكن تكييفها بسهولة لأداء مهام محددة، مثل التلخيص أو التحقق من الحقائق.
بالإضافة إلى ذلك، فإنها تستهلك طاقة أقل وتعمل على أنظمة حاسوبية أقل تكلفة، مما يجعلها خياراً مثالياً للمؤسسات ذات الموارد المحدودة.
ما يميز هذا العام أيضاً هو التفاعل المتسارع بين النماذج الكبيرة والصغيرة، حيث تسهم الأولى في تقديم ابتكارات تُستخدم لتحسين الثانية، مما يُنتج أنظمة هجينة أكثر قوة.
على صعيد متصل، أشار تقرير في موقع Fast Company إلى أن إتاحة هذه النماذج على نطاق واسع فتح المجال لتطبيقات متنوعة، لكنها جاءت بمخاطر جديدة، لا سيما خلال عام شهد انتخابات حاسمة في العديد من الدول.
واستخدمت بعض الأطراف نماذج الذكاء الاصطناعي في حملات تضليل واسعة، مثل مكالمات روبوتية مزيفة تقلد صوت الرئيس الأمريكي جو بايدن لحث الناخبين على عدم التصويت، كما تم إنتاج فيديوهات وميمات خادعة باستخدام الذكاء الاصطناعي.
ورغم جهود شركات مثل OpenAI لإيقاف هذه العمليات، فإن التأثير الحقيقي لهذا النوع من التضليل على الرأي العام لا يزال غير واضح، ما دفع العديد من الولايات الأمريكية إلى إصدار قوانين جديدة لتنظيم استخدام الذكاء الاصطناعي في الحملات الانتخابية، مما يعكس القلق العالمي من تداعيات هذه التكنولوجيا.
التحدي الأكبر: الهلوساترغم تقدم نماذج اللغة، لا تزال "الهلوسات" تمثل تحدياً كبيراً، حيث تقدم النماذج أحياناً مخرجات خاطئة بثقة زائفة، مثل وصفات تنظيف خطيرة أو نصائح قانونية غير دقيقة.
ولحل هذه المشكلة، طورت الشركات تقنيات مثل "إطارات الحماية"، التي تراقب المدخلات والمخرجات في الوقت الفعلي لضمان الدقة.
ومع ذلك، أكدت الأبحاث أن هذه الهلوسات قد تكون جزءاً لا مفر منه في نماذج الذكاء الاصطناعي، بسبب محدودية مواردها الحاسوبية والمعلوماتية، تماماً كما يخطئ البشر.
شهد عام 2024 بروز "وكلاء الذكاء الاصطناعي"، وهي نماذج تتمتع بقدرات تنفيذية مستقلة، حيث تتجاوز وظائف روبوتات المحادثة التقليدية لتتمكن من استخدام أدوات خارجية وأداء مهام معقدة، حيث يمكن لوكيل ذكاء اصطناعي تخطيط جدول سفر كامل، بدءاً من حجز الرحلات إلى ترتيب الإقامة وتنظيم الفعاليات.
ورغم أن هذه التكنولوجيا لا تزال في مراحلها الأولى، فإن التوقعات تشير إلى أن 82% من المؤسسات ستتبنى وكلاء الذكاء الاصطناعي خلال السنوات الثلاث المقبلة، مع توقعات باستخدام أوسع في 2025.
وعليه، فقد كشف عام 2024 عن الإمكانيات الهائلة للذكاء الاصطناعي، لكنه أظهر أيضاً الحاجة إلى توازن دقيق بين الابتكار والمسؤولية. ومع اقتراب دخولنا عام 2025، يبقى التحدي الأكبر هو توجيه هذه التقنية نحو تحسين حياة البشر مع الحد من مخاطر إساءة استخدامها.