صور التزييف العميق.. خطورة تهدد الخصوصية والمجتمعات
تاريخ النشر: 29th, August 2023 GMT
هل لكم أن تتخيلوا أنّ صورة هذه الفتاة مركبة كليا بواسطة الذكاء الاصطناعي.ربما لم يعد هذا الامر غريبا على أذهان الناس، ولكن هل تعلمون انّه وعبر الذكاء الاصطناعي وليس من خلال التقنيات المعروفة القديمة، أصبح بالامكان استخدام برمجيات توليدية للتزييف العميق، او ما بات يُعرف بـ (Deepfake)كاحدى الظواهر المثيرة للجدل والتي أصبحت تشكل قلقا للعالم.
وهنا نتحدث تحديدا عن برمجيات التوليدية للتزييف والتي تعمل على توليف الصور الاباحية لاي شخص، بمجرد أن يتم اختيار صورة من مواقع التواصل الاجتماعي او اي مصدر واعطائها للبرنامج المعالج عبر احدى تقنيات الذكاء الاصطناعي، وهو كفيل باعطاء الشخص ما يريد بشكل مرعب وحقيقي، وأكثر ما يخيف هو امكانية تعرية مجموعة اشخاص في صورة واحدة. برمجيات خطيرة
باتت هذه البرمجيات منتشرة بشكل واسع، بشكل يتطلب المراقبة والتحذير والوعي اولا واخيرا، وخصوصا بعدما بات هذا الامر وهذه التقنيات امرا واقعا لا مفر منه، في ظل عصف تقني ومساحات مفتوحة في فضاء واسع بلا حدود، ما خلق فوضى قد تتحول الى تهديد عبر مواقع التواصل الاجتماعي في المرحلة المقبلة.
فهل يمكن تقييد هذه البرمجيات، والتبيّن من حقيقتها ام لا؟
يشير الباحث في الفيزياء وتكنولوجيا النانو بالمعهد العالي للفيزياء في باريس الدكتور وسيم جابر، الى أنّه في عصر التطور التكنولوجي السريع، أصبحت التقنيات الجديدة والمبتكرة ذات تأثير ضخم على حياتنا، ويؤكد في حديث مع "لبنان 24" انّه "من بين هذه التقنيات تبرز "التزييف العميق (Deepfake) كإحدى الظواهر المثيرة للجدل والمقلقة على حد سواء. وهي تقنية تسمح بانشاء صور ومقاطع فيديو تبدو وكأنها حقيقية بشكل مذهل، ولكنها في الحقيقة مفبركة بواسطة الذكاء الاصطناعي.".
ويقول جابر: "في عالم يشهد على تزايد في استخدام وسائل التواصل الاجتماعي والإنترنت، تبرز خطورة صور التزييف العميق بوضوح. فباستخدام هذه التقنية والتي بدأت تنتشر على نطاق واسع، يمكن للمستخدمين إنشاء صور ومقاطع فيديو مفبركة تجعل الأمور تبدو وكأنها واقعية للغاية. وهنا تبرز المشكلة: فمن المستحيل تمييز الصور المزيفة عن الصور الحقيقية بسهولة".
ليس للترفيه
اذا ليس من السهل الكشف فيما اذا كانت هذه الصور مفبركة ام لا، ما يعني انّ الخطورة هنا تكبر. ويتابع جابر: "الامر ليس مجرد ترفيه. إن استخدام صور التزييف العميق في الأغراض السلبية يمكن أن يتسبب في تأثيرات كارثية. إذ يمكن لهذه الصور أن تؤدي إلى انتهاك خصوصية الأفراد وإتلاف سمعتهم بشكل كبير. بل وقد تستخدم هذه الصور أيضاً في أغراض الابتزاز، مما يضع ضحاياها في مأزق نفسي واجتماعي خطير".
وأبعد من ذلك يتحدث جابر انّ "الامور لا تتوقف عند هذا الحد، فصور التزييف العميق تساهم في تشويه الصورة العامة للجنسين وتعزيز تصورات غير واقعية حول العلاقات الجنسية. ومع ازدياد انتشارها، قد يتفاقم تأثيرها على المجتمع والثقافة". كيفية عمل الالية
ولكن السؤال هل من السهل الوصول الى هذه التقنيات ومتوفرة للجميع ام كلا، يجيب جابر: "العملية وراء إنشاء هذه الصور ليست بالأمر البسيط، فهي تعتمد على نماذج تعلم آلي معقدة تُعرف بالمولدات العميقة Deep Generative، ويتم تدريب هذه النماذج باستخدام كميات ضخمة من الصور ومقاطع الفيديو الإباحية الحقيقية باستخدام الشبكات العصبية التوليدية Generative Neural Network - GAN، لتمكينها من تعلم الأنماط والخصائص المميزة. بعد ذلك، تُطلق هذه النماذج لإنتاج محتوى مفبرك يبدو وكأنه حقيقي".
ويقول جابر إنّه لحماية المجتمع من هذه الخطورة، "يجب تطوير وسائل فعّالة للكشف عن الصور التزييفية ومنع إنتشارها. بالإضافة إلى ذلك، يلزم التوعية المستمرة بالجمهور حول وجود هذه التقنية والمخاطر المرتبطة بها". ويؤكد: "إن مكافحة صور التزييف العميق تتطلب جهداً مشتركاً من القطاعات الحكومية والصناعة والمجتمع للحفاظ على الخصوصية والنزاهة في هذا العالم الرقمي المعقد".
تأثيرات سلبية
وللصور المزيفة العميقة، وخاصة تلك التي تستخدم في إطار التعرية والصور الإباحية، تأثيرات سلبية متعددة على المجتمع، منها، لا يمكن حصرها في إطار معين يشرحها جابر. فهي اولا تؤدي الى الضرر النفسي للافراد المستهدفين، حيث يمكن أن تؤدي هذه الصور إلى شعور الأفراد المستهدفين بالضيق والخوف والاكتئاب، وقد تصل إلى حد الاكتئاب والقلق. كما يمكن أن تؤثر على العلاقات الشخصية والحياة الاجتماعية للأفراد المستهدفين.
يُضاف الى ذلك الضرر الاجتماعي الذي تنتج عنه، حيث يمكن أن تؤدي هذه الصور إلى تشويه سمعة الأفراد المستهدفين وانتشار الشائعات والأخبار الكاذبة عنهم، مما قد يؤثر على حياتهم المهنية والاجتماعية.
وأبعد من ذلك، قد يؤدي استخدام هذه التقنيات الى زيادة العنف ضد المرأة، إذ يمكن استخدامها للابتزاز أو التشهير أو التشهير بها. المواجهة
ولمواجهة صور التزييف العميق التي تخدم في إطار التعرية، يمكن اتخاذ عدد من الإجراءات، منها، توعية الأفراد بمخاطر هذه الصور، إذ يجب على الأفراد أن يكونوا على دراية بمخاطر صور التزييف العميق، وأن يكونوا قادرين على تمييزها عن الصور الحقيقية.
وكذلك العمل على تطوير أدوات لاكتشاف صور التزييف العميق، مما يساعد في طبيعة الحال على الحد من انتشارها. والاهم من ذلك هو سن قوانين لمكافحة هذه الصور، مما يساعد على حماية الافراد من اضرارها.
واخيرا، هذه بعض الخطوات السريعة التي يمكن للأفراد اتخاذها للحماية من صور التزييف العميق:
1) كن حذراً من الصور التي تراها على الإنترنت: لا تشارك أي صور أو مقاطع فيديو لم تكن متأكدًا من صحتها.
2) تحقق من مصادر الصور قبل مشاركتها: تأكد من أن الصور التي تشاركها مصدرها موثوق.
3) لا تثق في كل ما تراه على الإنترنت: تذكر أن الصور المزيفة العميقة يمكن أن تكون واقعية للغاية.
4) بلّغ السلطات اذا تعرضت لهذه التقنيات او اذا علمت بشخص يستخدمها. المصدر: خاص "لبنان 24"
المصدر: لبنان ٢٤
إقرأ أيضاً:
حتى في أبسط أشكاله.. خطورة استخدام الذكاء الاصطناعي على الطلاب
نشرت صحيفة نيويورك تايمز مقالا لأستاذة الفلسفة في جامعة كاليفورنيا، إيرفين، أناستاسيا بيرغ، تناول استخدام الطلاب للذكاء الاصطناعي ومخاطره عليهم.
وقالت بيرغ، إنه اتضح لها، في الربيع الماضي، أن أكثر من نصف الطلاب في محاضرتها الكبيرة لمادة التعليم العام قد استخدموا أدوات الذكاء الاصطناعي، خلافا لسياستها الصريحة، لكتابة أبحاثهم النهائية المنزلية. (ومن المفارقة أن عنوان المقرر كان "مشكلات أخلاقية معاصرة: قيمة الحياة البشرية").
وكانت قد سألتهم عن بعض الأعمال الفلسفية الحديثة جدا، والتي تصادف أن بعض أجزائها تشترك في عناوينها مع أفكار مختلفة تماما في اللاهوت في العصور الوسطى. ويمكن للقاريء تخمين المواضيع التي انتهى بها المطاف بالطلاب إلى "الكتابة" عنها.
وأكدت الدكتورة بيرغ أن وضعها لم يكن فريدا من نوعه على الإطلاق - فقد تم الإبلاغ عن انتشار الغش باستخدام الذكاء الاصطناعي في جميع أنحاء البلاد لكنها شعرت بخوف شديد كافَحَت للتعبير عنه حتى صاغت إحدى الزميلات المشكلة بعبارات واضحة حيث قالت: "طلابنا على وشك أن يصبحوا غير قادرين على التفكير".
وهذا هو بيت القصيد بحسب الكاتبة، فالأمر لا يتعلق فقط بالمهارات الأكاديمية المتخصصة أو العادات الذهنية الراقية، بل أيضا بأبسط أشكال الطلاقة المعرفية. إن ترك طلابنا لفعل ما يشاءون - أي لأجهزة شركات الذكاء الاصطناعي - هو حرمانهم من فرص لا غنى عنها لتطوير إتقانهم اللغوي، ومعه أبسط قدراتهم على التفكير وهذا يعني أنهم سيفتقرون إلى الوسائل اللازمة لفهم العالم الذي يعيشون فيه أو التعامل معه بفعالية.
وأضافت بيرغ، أن الذكاء الاصطناعي ليس أول تقنية تهدد كفاءتنا المعرفية. فقبل وقت طويل من ظهور ChatGPT والهواتف الذكية والآلات الحاسبة، حذر أفلاطون من الكتابة نفسها. فقد توقع أن البشر المتعلمين "لن يستخدموا ذاكرتهم". لم يكن مخطئا تماما.
وتابعت، أن قلة منا ستعتبر هذا صفقة سيئة. فالكلمة المكتوبة، في نهاية المطاف، هي شرط بقاء هذه الحوارات الأفلاطونية نفسها على مدى ألفي عام. غالبا ما تأتي الهدايا العظيمة بتكلفة باهظة. والسؤال دائما هو: هل الثمن مستحقا؟
وأشارت إلى أنه مع انتشار استخدام الطلاب للذكاء الاصطناعي، ركز العديد من منتقديه على المواهب الفكرية. فكتبت الشاعرة ميغان أورورك في مقال رأي لصحيفة نيويورك تايمز: "يقوض الذكاء الاصطناعي القيمة الإنسانية للانتباه، والفردية التي تنبع من ذلك". و
من بين القدرات الأخرى المهددة: "التعبير الإنساني الفريد"، و"التفكير النقدي المتأني"، و"القدرة على كتابة جمل أصلية ومثيرة للاهتمام". وقالت إنه بصفتها أستاذة في العلوم الإنسانية، فإن كل هذه المخاوف تلامسها بشدة.
وقالت: "ومع ذلك، فقد أدركت أن هناك شيئا أكثر جوهرية يتعرض للخطر. إن تطوير قدراتنا اللغوية - لإتقان مفاهيم متنوعة، ومتابعة حجة معقدة، وتكوين الأحكام، وإيصالها إلى الآخرين - هو في الواقع تطوير لقدرتنا على التفكير".
وأضافت: "بالنسبة لنا نحن البشر، فإن استخدام اللغة ليس مجرد مهارة كأي مهارة أخرى، بل هو الوسيلة التي ننجز بها كل شيء تقريبا. لقد اختلف الفلاسفة حول إمكانية وجود كائنات قادرة على التفكير رغم افتقارها إلى اللغة، ولكن من الواضح أن البشر لا يستطيعون ذلك. فنحن ندرك معالم عالمنا من خلال اللغة. لكننا لا نولد بلغة جاهزة، بل علينا اكتساب قدراتنا اللغوية وتطويرها من خلال الممارسة المكثفة مع البشر الآخرين. ولعدة قرون، كان هذا يعني في المجتمعات المتقدمة تنمية معرفة وثيقة بالكتابة البشرية".
ولفتت إلى أن كثيرين يميزون بين الاستخدامات غير المشروعة للذكاء الاصطناعي (مثل كتابة مسودات كاملة) والوظائف المساعدة البريئة - كالتلخيص، على سبيل المثال. لكن هذه الوظائف التي تبدو غير ضارة هي الأكثر ضررا على العقول النامية. لنأخذ التلخيص كمثال: يبدو أن ترك هذه المهمة الروتينية للذكاء الاصطناعي اختصارٌ غير ضار. صحيح أن الطلاب الذين يقرأون ملخصات الذكاء الاصطناعي فقط سيتعرضون لتحليل متوقع ونثر متجانس، لكنهم سيوفرون الوقت والجهد.
في الحقيقة، إن القدرة على تحديد ما يُجادل فيه وكيفية ذلك ليست أمرا ثانويا. لا يوجد جانب من جوانب الفهم المعرفي سطحي بحسب الكاتبة.
وأكدت بيرغ انه بدون فرصة لتطوير هذه القدرات، لن يتمكن الشباب من فهم تقرير إخباري أو وثائق طبية ونماذج الموافقة أو قيمة أي حجة (بما في ذلك هذه الحجة). من شأن نقص المخزون المفاهيمي أن يجعل حياتنا بدائية وتجربتنا للعالم غير متمايزة وخشنة. والأسوأ من ذلك، أن التدهور المعرفي يهدد حقنا في الحكم الذاتي: ليس من الواضح على الإطلاق أن سكان المجتمع ذي القدرات المعرفية المحدودة سيكونون مؤهلين للمشاركة في العمليات الديمقراطية التي تحدد كيفية تنظيم مجتمعاتنا وحياتنا.
وأكدت أنه مع الأخذ في الاعتبار سلبياته المحتملة، يصر العديد من المعلمين على أن استخدام الذكاء الاصطناعي على نطاق واسع في التعليم أمر لا مفر منه. يدعي المتحمسون للذكاء الاصطناعي، مثل د. غراهام بورنيت من جامعة برينستون، أن القراءة والكتابة انحراف تاريخي، لم يعد مناسبا لهذا العالم.
ويجادل الدكتور بورنيت بأنه خارج عدد قليل من المؤسسات النخبوية، لن يكون هناك أي فائدة قريبا من مطالبة الطلاب بقراءة الكتب. يجب على المعلمين بدلا من ذلك أن يطلبوا من الطلاب "القيام بأشياء" بنصوص قصيرة: "غنوها. احفظوها. قطعوها إلى قطع صغيرة والصقوها على الجدران".
وبعبارة أخرى، يجب أن نرحب بالعودة إلى مجتمع حيث تقتصر القراءة والكتابة الوظيفية على قلة قليلة من المتميزين.
وعبرت عن شعورها بالاستياء من تجاهل الدكتور بورنيت السهل لأغلبية طلاب الجامعات الأمريكية وتوجيههم إلى تعليم يبدو أكثر ملاءمة لأطفال الروضة. وتستند ادعاءاته إلى فرضية خاطئة. لا يزال العديد من الطلاب قادرين على القراءة والتفاعل مع النصوص الطويلة - ويرغبون في ذلك. وتستشهد بالطلاب الذين تدرسهم حيث اختار نصفهم أن يفعلوا ذلك بدلا من استخدام أدوات الذكاء الاصطناعي.
وأردفت: "لم يكن أي من طلابي - سواء قرأوا النصوص الصعبة التي كلفتهم بها أم لا - سيستفيدون أكثر من استخدام أجزاء صغيرة من مقالاتنا لتزيين الجدران بدلا من ذلك".
وختمت بيرغ مقالها قائلة إن التعليم العالي يهدف إلى تنشئة أفراد ناضجين فكريا، وهذا بدوره يتطلب منا ضمان تعلم الطلاب القراءة والتفكير والكتابة بشكل مستقل. الأمر أسهل مما نتصور: فخلق مساحات خالية من التكنولوجيا وتشجيع الطلاب على قضاء الوقت فيها لا يتطلب موارد جديدة. كل ما نحتاجه هو الإرادة. لا يزال العديد من طلابنا يمتلكونها. فهل يمتلكها معلموهم أيضا؟