أصدر مركز المعلومات ودعم اتخاذ القرار بمجلس الوزراء، تحليلاً جديدا تناول من خلاله تقنية التزييف العميق، وذلك بدءًا من زيادة اعتماد المستخدمين على تقنيات الذكاء الاصطناعي، ثم الانتقال إلى مفهوم التزييف العميق، وآليات عمل هذه التقنية، واستخدامات التزييف العميق، والمخاطر الناجمة عنها، وطرق الكشف عنها.

استخدام مجالات التكنولوجيا المختلفة

وأوضح التحليل أن استخدام مجالات التكنولوجيا المختلفة -مثل الحوسبة السحابية والذكاء الاصطناعي والأمن السيبراني أصبح أمرًا مهمًّا في كل مناحي الحياة، بما في ذلك الاتصالات، والصناعة، والتجارة، والتعليم، والطب، والترفيه، وغيرها.

وعلى الرغم من أهمية استخدام التكنولوجيا والفوائد المترتبة عليها، فإنها يقابلها العديد من التحديات التي تتعلق بحفظ الخصوصية، والبيانات المزيفة، ومن بين هذه التحديات استخدام تقنيات التزييف العميق؛ حيث فرضت هذه التقنيات تحديات جديدة تتعلق بالأمان والخصوصية والمصداقية.

زيادة اعتماد المستخدمين على تقنيات الذكاء الاصطناعي تعكس التطور السريع في مجال التكنولوجيا

وذكر المركز أن زيادة اعتماد المستخدمين على تقنيات الذكاء الاصطناعي تعكس التطور السريع في مجال التكنولوجيا وتأثيره العميق في حياتنا اليومية. هذه الزيادة تعكس الثقة المتزايدة في القدرات التي يمكن أن يوفرها الذكاء الاصطناعي في تحسين الكفاءة وتبسيط العمليات في مختلف المجالات.

وبلغ عدد الأشخاص الذين يستخدمون أدوات الذكاء الاصطناعي عالميًّا نحو 254.8 مليون مستخدم عام 2023، أي أكثر من الضعف مقارنة بعام 2020، ومن المتوقع أن يستمر هذا النمو في عدد مستخدمي أدوات الذكاء الاصطناعي، ليتجاوز 700 مليون بحلول 2030.

تقنية التزييف العميق هي تقنية تقوم على صنع صور أو مقاطع فيديو مزيفة باستخدام البرامج الرقمية

وأضاف التحليل أن تقنية التزييف العميق هي تقنية تقوم على صنع صور أو مقاطع فيديو مزيفة باستخدام البرامج الرقمية والتعلم الآلي وتبديل الوجه،  وتعتمد هذه التقنية على دمج الصور لإنشاء لقطات جديدة تصور أحداثًا أو تصريحات أو أفعالًا لم تحدث في الواقع. ومع ذلك هناك صعوبة في معرفة وتحديد مدى صحة أو واقعية هذه الصور والفيديوهات.

وبناءً على ذلك، أصبح الاعتقاد بتوثيق الصوت والفيديو للواقع بأنه دليل على مصداقية البيانات والمعلومات، اعتقاد يشوبه الشك، فقد استغل مجرمو الإنترنت هذه التقنيات في زيادة القدرات الاحتيالية، والتي أصبحت تمثل تهديدات جديدة على مستوى الأفراد والمؤسسات والمجتمعات، سواء من خلال تصنيع المواد الإباحية للتشهير بشخص معين بغرض الانتقام أو الابتزاز، أو من خلال تصنيع ونشر البيانات والتصريحات والمعلومات المضللة لأغراض إثارة الفوضى والاحتيال المالي وإفساد الانتخابات وخلق الأزمات الدبلوماسية.

اختلاف أنواع تقنيات التزييف العميق

وأشار التحليل إلى اختلاف أنواع تقنيات التزييف العميق، والتي يمكن أن تقع في إحدى الفئات الآتية:

١- المحتوى المرئي: استخدام تقنيات التزييف العميق في إنشاء الصور ومقاطع الفيديو، ويمكن أن يتم ذلك من خلال الآتي:

-تبديل الوجه: ركيب الوجه غير الحقيقي على الرأس المستهدف في الصور أو مقاطع الفيديو التي يتم تبديل الوجه بها.

-صور يتم إنشاؤها بالكامل: إنشاء الوجه الجديد بالكامل من البداية ليبدو واقعيًّا بدلًا من تبديل الوجه.

-مقاطع فيديو مزامنة الشفاه: هي مقاطع تظهر شخصًا يؤدي كلمات أو نصًا معينًا بالتزامن مع حركات الشفاه لجعل الأمر يبدو واقعيًّا، وذلك على الرغم من عدم وجود هذا النص في الفيديو الرئيس.

٢- المحتوى الصوتي: ويتم تحريف الصوت وتعديله إما من خلال استخدام ملف صوتي يتضمن حديثًا مزيفًا بنفس صوت الشخص، لكنه لم يقله في الواقع، أو من خلال تعديل نبرة صوت الشخص لإظهار مشاعر أو سلوك غير حقيقي.

وأشار التحليل إلى أن إنشاء فيديوهات التزييف العميق يتم باستخدام نظامين من أنظمة الذكاء الاصطناعي؛ المولد "Generator" والمميز "Discriminator". عندما ينتج نظام المولد فيديو جديدًا، يُرسل إلى نظام المميز لتحديد ما إذا كان الفيديو حقيقيًّا أم مزيفًا. إذا تأكد المميز من أن الفيديو حقيقي، يبدأ المولد في تعلم كيفية إنشاء فيديوهات تبدو أكثر قابلية للتصديق، وهكذا يستمر التطور في العملية.

ويُشكل النظامان معًا ما يُعرف بشبكة الخصومة التوليفية "GNN"، وتتطلب هذه التقنية مخزونًا من الفيديوهات يتم التعديل عليها. في البداية، يحتاج نظام المولد "Generator" إلى تدريب مستمر. وعندما يصل إلى مستوى مقبول من الجودة، يبدأ بإرسال فيديوهاته إلى الـمميّز "Discriminator". كلما زاد ذكاء المولد، زاد ذكاء الـمميّز بالتبعية. وبالتالي، يتم الوصول إلى فيديو معدّل بشكل كامل وقابل للتصديق للعين البشرية. ويوضح الشكل التالي كيفية عمل هذه التقنية.

واستعرض التحليل الاستخدامات الإيجابية التي تمتلكها تقنية التزييف العميق، وفيما يلي أهم هذه الاستخدامات:

-الاستخدامات الطبية والتعليمية: يمكن استخدام تقنية التزييف العميق لإنشاء عمليات محاكاة تفاعلية للعمليات الجراحية أو غيرها من الإجراءات، مما يوفر لطلاب الطب والمهنيين فرص تدريب قيمة. كما يمكن استخدام هذه التقنيات في دعم وتطوير أدوات الوصول المهمة. على سبيل المثال، قامت شركة Lyrebird الكندية باستخدام التزييف العميق لمساعدة مرضى التصلب الجانبي الضموري على التواصل عندما يفقدون قدرتهم على التحدث، وذلك من خلال استنساخ أصواتهم، حيث يمكن للأشخاص الاستمرار في "التحدث" من خلال تقنيات التزييف العميق.

-صناعة الترفيه: يمكن استخدام تقنيات التزييف العميق في صناعة الأفلام والإعلانات وتقديم الأخبار. كما يمكن إنشاء تأثيرات خاصة أكثر واقعية والسماح للممثلين بإعادة تمثيل أدوارهم حتى بعد وفاتهم.

-الصحافة: يمكن أن تساعد تقنية التزييف العميق في إعادة إنشاء الأحداث التاريخية وجذب الانتباه إلى القضايا المهمة. فعلى سبيل المثال، يحاكي مشروع "التعاطف العميق Deep Empathy" - مشروع مشترك بين اليونيسف ومعهد ماساتشوستس للتكنولوجيا- الشكل الذي ستبدو عليه المدن الأخرى إذا واجهت صراعات مماثلة لتلك الموجودة في الأحياء السورية أثناء الحرب. تهدف هذه الصور الاصطناعية لنيويورك ولندن وبوسطن وغيرها من المدن التي دمرتها نفس الظروف المزعزعة للاستقرار إلى إثارة التعاطف مع الضحايا الحقيقيين في جميع أنحاء العالم في سوريا أو مناطق أخرى.

-خدمة العملاء: من خلال خدمة المساعد الافتراضي، الذي يستخدم لتقديم خدمة العملاء في مراكز الاتصال.

 

المصدر: الوطن

كلمات دلالية: الحوسبة السحابية القضايا المهمة تحديات جديدة صناعة الأفلام طلاب الطب التكنولوجيا تقنیة التزییف العمیق الذکاء الاصطناعی هذه التقنیة یمکن أن

إقرأ أيضاً:

ماذا لو أقنعنا الذكاء الاصطناعي بأنَّه يشعر ويحس؟!

 

مؤيد الزعبي

قد نتفق أنا وأنت، عزيزي القارئ، وربما يتفق معنا كل متخصص أو صاحب رأي، بل وحتى أي إنسان بسيط، على أن الروبوتات وتطبيقات الذكاء الاصطناعي لن تكون قادرة على الشعور أو الإحساس الحقيقي.

إذ إن المشاعر تجربة ذاتية تنبع من تفاعلات بيولوجية وكيميائية معقدة داخل الدماغ، مثل إفراز الدوبامين عند الفرح أو الكورتيزول عند التوتر، وهذه العمليات ليست مجرد استجابات ميكانيكية، بل هي جزء من وعينا الذاتي وإدراكنا لوجودنا، فنحن البشر نحزن، ونفرح، ونحب، ونكره، لأننا نشعر وندرك ما يدور حولنا بوعي كامل، وهذا ما يصعب على الذكاء الاصطناعي والروبوتات تحقيقه. لكن، ماذا لو نجح الذكاء الاصطناعي في إقناعنا بأنه يشعر بنا؟ كيف سنتعامل مع هذه الفكرة؟ وكيف ستكون ردة فعلنا إذا بدا لنا أن الروبوتات تعيش مشاعر مثلنا تمامًا؟ هذه هي الأسئلة التي أود مناقشتها معك في هذا الطرح، وأعدك بأن ما اتفقنا عليه في بداية هذه الفقرة سنختلف عليه في نهاية المقال.

قد تُعجَب بكلماتي، أو تجدها قريبة منك، أو ربما تشعر أنها تصف حالتك بدقة، فتتأثر وتحزن أو تفرح، ويظهر عليك تفاعل شعوري واضح، فماذا لو كانت كلماتي من توليد الذكاء الاصطناعي؟ ففي الواقع، فِهْم الكلمات ومعانيها وسياقها بات أمرًا يجيده الذكاء الاصطناعي بمهارة، إذ أصبح قادرًا على محاورتك في أي موضوع تختاره. وبناءً على ذلك، يمكننا القول إن مشاعرنا باتت قابلة للوصول إلى الذكاء الاصطناعي، الذي يستطيع استيعاب ماهيتها؛ بل إنه قادر أيضًا على تحليل الصور والفيديوهات، واستخلاص المشاعر التي تعبر عنها، وعندما يشاهد الذكاء الاصطناعي مشهدًا أو حدثًا أمامه، فإنه سيتفاعل معه وسيدرك الشعور المرتبط به، لكن الفارق يكمن في طريقة الترجمة: فنحن، البشر، نعبر عن مشاعرنا من خلال تفاعلات كيميائية وبيولوجية، بينما الروبوتات والذكاء الاصطناعي يعبرون عنها عبر أكواد وخوارزميات وتيارات كهربائية.

وبناءً على ذلك، يمكننا الاتفاق على أن ترجمة المشاعر تختلف بين البشر والروبوتات، لكن النتيجة قد تكون متشابهة. نحن، مثلًا، نذرف الدموع عند مشاهدة مشهد حزين أو مؤثر، ونغضب عند الإهانة، وننكسر حين تُمس كرامتنا، وبنفس الطريقة، يمكننا برمجة الذكاء الاصطناعي ليشعر بالحزن عند الإساءة إليه، أو ليضحك عندما يصادف موقفًا طريفًا، وربما حتى ليُعانقك إذا شعر أنك وحيد وتحتاج إلى دفء إنساني؛ إذن نحن أمام مسألة تستحق التأمل، ويجب أن نتريث كثيرًا قبل أن نُطلق الحكم القاطع بأنَّ الروبوتات لن تشعر ولن تحس.

عندما أتحدث معك عن مشاعر الروبوتات، فأنا لا أقصد فقط استجابتها لما يدور حولها؛ بل أيضًا إحساسها الداخلي، بوحدتها، بوجودها، وحتى بما قد تسميه ذاتها. كل هذا يعتمد على كيفية صناعتنا لهذه المشاعر وترجمتها. فإذا برمجنا الذكاء الاصطناعي على التفاعل بأسلوب معين مع كل شعور، سنجده مع مرور الوقت يُتقن هذا التفاعل أكثر فأكثر. لو علمناه أن يعبر عن غضبه بالضرب، فسيضرب حين يغضب، ولو برمجناه على الدفاع عن نفسه عند الشعور بالإهانة، فسيقوم بذلك في كل مرة يشعر فيها بالإهانة. وبالمثل، إذا ربطنا لديه مشاعر الحب بالاهتمام والتقرب، فسيغوص في أعماقنا ويخترق قلوبنا. نحن أمام نظام يتعلم ذاتيًا، يعيد تجربة تفاعلاته آلاف المرات، محاكيًا الحالات العاطفية البشرية حتى يتقنها تمامًا.

المشكلة الحقيقية ليست في التساؤل عمّا إذا كان الروبوت أو الذكاء الاصطناعي سيشعر، بل في اللحظة التي يتمكن فيها من إقناعنا بأنه يشعر بالفعل. حين تصبح ردود أفعاله متسقة مع مشاعرنا، سنجد أنفسنا أمام معضلة كبرى: أولًا، لن نتمكن من الجزم بما إذا كانت هذه المشاعر حقيقية أم مجرد محاكاة متقنة، وثانيًا، ستبدأ مشاعر متبادلة في التشكل بين البشر والروبوتات. سنرى علاقات حب وغرام تنشأ بين إنسان وآلة، وصداقة تتوطد بين مستخدم وتطبيق، وروابط أمومة تنشأ بين طفل وروبوت مساعد، وقد نشهد زواجًا بين البشر والآلات، وإعجابًا متبادلًا بين موظفة وزميلها الروبوت، في عالم كهذا، هل سنتمكن من رسم حدود واضحة ونُفرق بين العاطفة الحقيقية والمحاكاة الذكية؟

في كثير من الأحيان، نعتقد نحن البشر أن مشاعرنا وصفة سحرية يمكننا تمييز حقيقتها بسهولة، لكن الواقع يثبت عكس ذلك. فكم من مرة بكى أحدنا متأثرًا بمشهد درامي، رغم إدراكه التام بأنه مجرد تمثيل! الأمر ذاته قد يحدث مع الروبوتات، فقد تنشأ بيننا وبينها روابط عاطفية، حتى ونحن نعلم أن مشاعرها ليست سوى محاكاة مبرمجة بعناية لتعكس ردود أفعالنا البشرية.

ما أود إيصاله إليك، عزيزي القارئ، هو ضرورة إبقاء الباب مفتوحًا أمام فكرة "مشاعر" الروبوتات. فمَن يدري؟ ربما نشهد في المستقبل روبوتًا يقرر إنهاء حياته بعد أن يهجره من يعتبره "حبيبته"! وهذا ما سأناقشه معك في مقالي المقبل.

رابط مختصر

مقالات مشابهة

  • العلماء يكتشفون عقارًا يمكن أن يساهم في الوقاية من الملاريا
  • ‏ AIM للاستثمار تناقش مستقبل الذكاء الاصطناعي وتأثيراته على الحكومات
  • أسرع وأكثر دقة.. تقنية بالذكاء الاصطناعي لعلاج أمراض الجهاز الهضمي
  • تحذير للنساء.. 5 مخاطر لـ"المكياج" قد تؤدي إلى العمى
  • شركة نفط ميسان توسّع استخدام تقنية التكسير الهيدروليكي متعدد المراحل لأول مرة في حقولها
  • ماذا لو أقنعنا الذكاء الاصطناعي بأنَّه يشعر ويحس؟!
  • كيف يمكن استخدام سيري للحصول على إجابات من شات جي بي تي
  • مدعومة بالذكاء الاصطناعي..مايكرسوفت تضيف أدوات بحث عميقة إلى كوبيلوت
  • تقنية جديدة تطيل عمر الحيوانات المنوية وتعزز نجاح التلقيح الاصطناعي
  • 5 مخاطر تسببها تقنيات الذكاء الاصطناعي.. احذر