◄ التقنيات الحديثة قادرة على إنتاج محتوى مشابه للواقع الحقيقي

◄ انتشار أدوات الذكاء الاصطناعي ساهم في صناعة التزييف

◄ إسرائيل تتعمد تزييف الحقائق للتأثير على المجتمع الدولي

جهود دولية لإقرار ضوابط وأخلاقيات لاستخدام الذكاء الاصطناعي

 

الرؤية- سارة العبرية

بات الاعتماد على التقنيات الحديثة وأدوات الذكاء الاصطناعي أمرا واقعيا في مختلف المجالات ولدى جميع الشركات والمؤسسات، ومع التطور الذي شهده العالم في السنوات الأخيرة استُخدمت هذه الأدوات والتقنيات في جوانب سلبية سواء على مستوى الأفراد أو الدول، ليظهر مصطلح "التزييف العميق deepfake" الذي قد يستهدف أشخاصًا أو دولا لتحقيق أهداف شخصية أو الترويج لروايات غير حقيقية.

أساليب التزييف

التزييف العميق هو التلاعب بالصور والأصوات والفيديوهات لإنشاء هويات وعناصر جديدة غير حقيقية، ونشأ هذا الأسلوب قبل ظهور الذكاء الاصطناعي التوليدي في صورته الحالية، معتمدا على تطبيقات وأدوات تستغرق وقتا طويلاً ويسهل اكتشاف ما تنتجه.

وفي السنوات الأخيرة، تطورت الأدوات التقنية من البرمجيات البسيطة إلى الأنظمة المعقدة التي تستخدم الذكاء الاصطناعي في تحليل كميات كبيرة من البيانات لإجراء تعديلات وخلق تجارب بصرية وسمعية شديدة الواقعية مُتمثلة في استنساخ الأصوات وتوليد الصور وإنتاج الفيديوهات ودمجها وإكسابها خصائص واقعية جدا يصعب تمييزها أو كشف حقيقتها.

ويشير تقرير Sumsub المزود لحلول التحقق من الهوية الرقمية والمنشور في 28 نوفمبر 2023، أن التقنيات التي تعمل بالذكاء الاصطناعي كانت من بين أفضل خمس أدوات تستخدم لإجراء الاحتيال والتزييف عبر الإنترنت في عام 2023.

وكعادته، يمكن أن يكسب الذكاء الاصطناعي الفرد مهارات وقدرات لم يكن يمتلكها سابقاً، لقدرته على إنتاج وتنفيذ أي مهام، وهو الأمر الذي ساهم في صناعة التزييف العميق الذي أصبح متاحاً للجميع بفضل انتشار أدوات الذكاء الاصطناعي.

ووفقًا لتقرير Sumsub فإن عام 2023 شهد زيادة كبيرة في استخدام التزييف العميق عالميًا؛ حيث ارتفعت النسب في أمريكا الشمالية بـ 1740% وفي منطقة آسيا والمحيط الهادئ بـ 1530%، وفي الشرق الأوسط وأفريقيا زاد استخدامها لتزوير الهوية بنسبة 450%، أما في أمريكا اللاتينية بنسبة 410%، في حين قطاع العملات المشفرة كان الأكثر تضررًا بنسبة 88% من الحالات، تليه التكنولوجيا المالية بنسبة 8%..

وتعدُّ عملية التزييف العميق سهلة الإنتاج في وجود أدوات الذكاء الاصطناعي؛ حيث إن المستخدم يقدم مجموعة من الفيديوهات أو الأصوات أو الصور إلى الشبكات الذكية والتي تقوم بدورها بفحصها واستنساخ البيانات منها وإنشاء مقطع جديد حسب التعليمات أو التراكيب التي يحددها المستخدم.

تطبيقات إيجابية

وعلى الرغم من هذا الجانب المظلم، إلا أن الإنسان لا يزال هو الموجه الأول لهذه التطبيقات الذكية سواء باستخدامها إيجابيا أو سلبيا، إذ يمكن أن تكون لتقنية التزييف العميق تطبيقات إيجابية في عدة مجالات، أبرزها: توفير أدوات مساعدة للأشخاص ذوي الإعاقة، مما يحسن الوصول للمعلومات ويزيد الاستقلالية، وفي التعليم يمكن أن يُنتج التزييف العميق الشخصيات التاريخية في الفصول الدراسية، وإنتاج الكتب الصوتية بأصوات مخصصة، وتوسيع نطاق وصول المحتوى بلغات متعددة مما يجعل الدروس أكثر جاذبية وتفاعلية.

أما في الفن والترفيه فيمكن أن يساهم في تقليل تكاليف إنتاج الأعمال الفنية وتطوير الألعاب، ويفتح آفاقاً جديدة في الإبداع، كما يمكن للتزييف العميق حماية الخصوصية للأطفال وصُنّاع المحتوى والصحفيين للبقاء مجهولين عند الخوف من الضرر.

الاستخدامات السلبية

أما الاستخدامات السلبية والضارة والتي ظهرت كثيرا في الفترة الماضية فتمثلت في التلاعب بالأخبار بإنشاء فيديوهات مزيفة لشخصيات عامة لنشر معلومات مضللة وتأجيج الصراعات، والابتزاز والتشهير بتصنيع محتوى مسيء أو محرج للإضرار بسمعة أفراد معينين؛ والتأثير السلبي على العدالة بإنشاء أدلة كاذبة مما قد يؤدي لأخطاء قانونية، وانتهاك الخصوصية من خلال إنتاج مُحتوى شخصي دون موافقة مما يشكل تهديدًا لخصوصية الأشخاص.

من الأمثلة القريبة على عمليات التزييف العميق للصوت والصور، ما يحدث في الحرب الإسرائيلي على قطاع غزة، إذ إن الاحتلال الإسرائيلي ييسير على هذا النهج حيث تتخذ الحرب المعلوماتية لدى إسرائيل أشكالا عدة، فهي تنشر المعلومات الكاذبة والمضللة، وتعمل على تشويه الصورة العامة للخصوم السياسيين، بهدف الترويج لوجهة نظر معينة وتشكيل الرأي العام.

وقد استغلت إسرائيل بطريقة ممنهجة التحول الرقمي الذي شهدته وسائل الإعلام المختلفة، والكيفية التي أصبحت بها وسائل التواصل الاجتماعي أداة لتبادل الأخبار، واستخدمت ذلك في حربها المعلوماتية على غزة طوال العقد الماضي بما يخدم أهدافها العسكرية، وهو ما نستطيع أن نرى آثاره في الحرب الدائرة داخل القطاع الآن.

وما حدث يوم 7 أكتوبر الماضي تزامنا مع عملية "طوفان الأقصى"، عندما فوجئ المجتمع الدولي بالادعاءات التي أطلقها جيش الاحتلال الإسرائيلي ومكتب رئيس الوزراء بنيامين نتنياهو، واتهام أفراد المقاومة الفلسطينية بقطع رؤوس 40 رضيعًا.

ونفت حركة المقاومة "حماس" الرواية الإسرائيلية، لكن تلك "المعلومة المضللة الصغيرة" انتشرت مثل النار في الهشيم وتداولتها وكالات الأنباء العالمية بوصفها حقيقة مؤكدة، خاصة بعدما أكدها الرئيس الأمريكي جو بايدن زاعمًا أنه رأى صور الرضع مقطوعي الرأس بنفسه، وهو التصريح الذي تراجع عنه البيت الأبيض بعدها، نافيًا رؤية أية صور.

وبحسب تقرير (7) أصدره معهد الشرق الأوسط للتفاهم (Institute for middle east understanding)، لم يقدم جيش الاحتلال الإسرائيلي أي دلائل تدعم صحة مزاعمه حتى الآن.

ولم تقف الأمور عند هذا الحد، فعندما وقع القصف الذي استهدف المستشفى الأهلي "المعمداني" بغزة يوم 17 أكتوبر، خرج المتحدث الرسمي باسم جيش الاحتلال الإسرائيلي مدعيّا أن الصاروخ المتسبب في تلك المأساة الإنسانية ناجم عن عملية إطلاق فاشلة لأحد صواريخ حركة الجهاد الإسلامي، واستندت روايته إلى زَعْمَين، الأول كان مقطع فيديو وصور التُقطت بواسطة الأقمار الصناعية، والثاني كان تسجيلا صوتيا يقال إنه لمكالمة هاتفية بين عضو سابق في حركة (حماس) وأحد سكان القطاع، وقد شككت العديد من المصادر في صحة الأمرين.

من جانبها، أجرت صحيفة "نيويورك تايمز" تحليلا موسعا لمقاطع الفيديو التي وردت في الرواية الإسرائيلية، مشيرة إلى وقوع انفجارين بالقرب من المستشفى المعمداني في غضون دقيقتين من القصف، وقد شككت في أن يكون الصاروخ الذي ظهر في الفيديو وبنى عليه المسؤولون الإسرائيليون روايتهم هو المتسبب في انفجار المستشفى.

قوانين تُنظّم أو تحكم التزييف العميق

حتى الآن لا توجد قوانين صريحة تنظم التزييف العميق، وتكتفي بعض الدول بتطبيق قوانين تقنية المعلومات والتي في صورتها الراهنة يمكن أن تنظم وتغطي بشكل جزئي هذه التقنية وتجاوزاتها، ومن المأمول أن تكون قوانين وأخلاقيات الذكاء الاصطناعي التي تسعى لها الدول والتي أقرت كمسودات في بعضها كالاتحاد الأوروبي واليابان أن تساهم في التقليل من تجاوزات المغمورين في التزييف العميق من خلال إبراز الشفافية فيما يتم إنشاؤه أو التلاعب فيه بمختلف الوسائط.

وبشكل عام وفي ظل غياب القوانين الصريحة الضابطة للتزييف العميق، وكون هذه التجاوزات في هذه التقنية تنشأ من أفراد وليست مؤسسات، فإنه ينبغي من أفراد المجتمع والمؤسسات المعنية التعاون للحد من مخاطر هذه التقنية، والوعي والتثقيف حول كيفية التعرف على المحتوى المُزيف وتشجيع التحليل النقدي للمعلومات، واستخدام برمجيات موثوقة للكشف عن التزييف وتطبيق الأطر والتوجيهات ضد الاستخدام غير الأخلاقي لهذه التقنية.

كما يجب على الأفراد حماية معلوماتهم الشخصية والتحقق من المصادر قبل تقبل المعلومات، واستخدام الأدوات والبرمجيات من مصادر موثوقة وقراءة بنود الخصوصية والأمان الملحقة به.

المصدر: جريدة الرؤية العمانية

إقرأ أيضاً:

ميتا تغير تسمياتها لصور الذكاء الاصطناعي بعد شكاوى المصورين

تعمل شركة Meta على تحديث تصنيفاتها "Made with AI" بعد شكاوى واسعة النطاق من المصورين بأن الشركة كانت تشير عن طريق الخطأ إلى محتوى غير منشأ بواسطة الذكاء الاصطناعي. وفي أحد التحديثات، قالت الشركة إنها ستغير الصياغة إلى "معلومات الذكاء الاصطناعي" لأن التصنيفات الحالية "لم تكن دائمًا متوافقة مع توقعات الأشخاص ولم توفر دائمًا سياقًا كافيًا".

قدمت الشركة ملصقات "Made with AI" في وقت سابق من هذا العام بعد انتقادات من مجلس الرقابة بشأن سياسة "الوسائط التي تم التلاعب بها". وقالت ميتا إنها، مثل العديد من نظيراتها، ستعتمد على إشارات "معايير الصناعة" لتحديد متى تم استخدام الذكاء الاصطناعي التوليدي لإنشاء صورة. ومع ذلك، لم يمض وقت طويل قبل أن يبدأ المصورون في ملاحظة أن فيسبوك وإنستغرام كانا يطبقان الشارة على الصور التي لم يتم إنشاؤها بالفعل باستخدام الذكاء الاصطناعي. وفقًا للاختبارات التي أجرتها PetaPixel، فإن الصور التي تم تحريرها باستخدام أداة التعبئة التوليدية من Adobe في Photoshop من شأنها أن تؤدي إلى تشغيل الملصق حتى لو كان التعديل مجرد "بقعة صغيرة".


على الرغم من أن Meta لم تذكر اسم Photoshop، إلا أن الشركة قالت في تحديثها إن "بعض المحتوى الذي تضمن تعديلات طفيفة باستخدام الذكاء الاصطناعي، مثل أدوات التنقيح، تضمن مؤشرات صناعية قياسية" أدت إلى ظهور شارة "Made with AI". "بينما نعمل مع الشركات في جميع أنحاء الصناعة لتحسين العملية بحيث يتوافق نهج التصنيف الخاص بنا بشكل أفضل مع هدفنا، فإننا نقوم بتحديث علامة "Made with AI" إلى "معلومات الذكاء الاصطناعي" عبر تطبيقاتنا، والتي يمكن للأشخاص النقر عليها للحصول على مزيد من المعلومات. "

ومن المربك إلى حد ما، أن تسميات "معلومات الذكاء الاصطناعي" الجديدة لن تحتوي في الواقع على أي تفاصيل حول الأدوات التي تدعم الذكاء الاصطناعي والتي ربما تم استخدامها للصورة المعنية. أكد متحدث باسم Meta أن القائمة السياقية التي تظهر عندما ينقر المستخدمون على الشارة ستظل كما هي. تحتوي هذه القائمة على وصف عام للذكاء الاصطناعي التوليدي وتشير إلى أن Meta قد تضيف إشعارًا "عندما يشارك الأشخاص محتوى يحتوي على إشارات الذكاء الاصطناعي التي يمكن لأنظمتنا قراءتها".

مقالات مشابهة

  • الأمم المتحدة تتبنى قرارا صينيا حول الوصول للذكاء الاصطناعي
  • الصواريخ الدقيقة.. تأثير الذكاء الاصطناعي والتحديات الهجومية للمقاومة اللبنانية
  • ميتا تغير تسمياتها لصور الذكاء الاصطناعي بعد شكاوى المصورين
  • في ذكرى ميلاده.. كيف وصف الذكاء الاصطناعي وحيد حامد؟
  • أفضل 5 بدائل شات جي بي تي المتاحة عبر الإنترنت
  • 14 طالباً يمنياً يشاركون في معسكر خليجي للذكاء الاصطناعي
  • ضرورة محاربة أمية الذكاء الاصطناعي
  • خبراء «الذكاء الاصطناعي» يزورون مجمع حمدان الرياضي
  • هل أثر الذكاء الاصطناعي على معدلات التوظيف في الولايات المتحدة؟
  • متحدياً إصابته… الجريح يوسف أسعد يؤسس مشروعاً لصناعة الحلويات بريف طرطوس