البوابة نيوز:
2025-01-31@05:00:02 GMT

التزييف العميق

تاريخ النشر: 9th, June 2024 GMT

تابع أحدث الأخبار عبر تطبيق

أكثر ما يمكن أن يشكل خطرًا قويًا ومدمرًا هو التضليل، تزييف وعي الناس، وأكثر ما هو مؤسف أن يكون مصدره أو حلقة من حلقاته شخص محسوب على الوسط الثقافي، شخص نحسبه مفكرًا، قارئًا، واعيًا، لأن هذه الصفات تميزه عن بقية الناس، تصنع له مساحة من الثقة والصدق في القلوب، لكنه في الحقيقة مضلل.

قراءة الصفحات الرسمية لبعض الكتاب والمثقفين والشعراء، تشير إلى حالة من الاستسهال واللامبالاة، فيها تجري إعادة تدوير الأخبار الكاذبة والشائعات، تلاحظ أنه بسهولة يرص مجموعة من الأخبار المتداولة بعضها صحيح والآخر مزيف، يصنع ظاهرة ويعلق عليها بثقة بالغة، وتظهر انفعالاته من بين سطوره، وأسأل نفسي: هذا المثقف العظيم، لماذا لم يفتح صفحة جوجل ليقوم بعملية بحث بسيطة للتأكد من المصدر؟ هل تداوله بين الصفحات الافتراضية جعله يكتسب قوة الحقيقة؟.

هنا لا أتحدث عن الجمهور العادي، الذي يندفع وراء الحماس أو الفرح أو الغضب لمشاركة أي محتوى على فيسبوك دون التحقق من مصدره، لكنك أمام عدد من أدعياء الثقافة والشعر والكتابة والرواية، صفحاتهم مليئة بالأخبار الملفقة، فضلًا عن ترديد الشائعات، ليزيد من ترسيخ حالة الفوضى، فلا أهمية للتأكيد من الخبر أو الشائعة.

ولا يكتفي أن يكون الشخص مساعدًا في زيادة موجة الأخبار الكاذبة، والمعلومات الزائفة، بل يصل الأمر لأن يكون مصدرها ومنبعها.

كسل بعض المثقفين ليس وحده في هذا المشهد المخيف، إنما يتبعه بالضرورة الانجراف مع موجة الغوغائية، لا تقف لحظة، لا تفكر، لا تتأمل، فقط انجرف وتحدث مثلما يتحدث الجميع، لا تسمح لأحد أن يختلف معك، لا تعطه فرصة للتعبير عن رأيه، انجرف دون وعي، لن يرضى عنك أحد طالما لم تنجرف مع الغوغائية، لذا فإن فحص الأخبار، والتوقف قليلا من أجل التفكير، وعرقلة الغوغائية عندما تصل إليك، مطالب صعبة.

والأصعب ليس الكشف عن الحقائق في زمن التزييف، إنما انتقالنا لعصر الذكاء الاصطناعي التوليدي الذي يتمتع بفهم وتوليد استجابات دقيقة ومناسبة للسياق، ويتيح قدرات إضافية وعالية من التزييف، يسميها الخبراء بالتزييف العميق.

الخبراء قالوا أيضا إن الحوادث التي وقعت مثل إجراء مكالمة بصوت الرئيس الأمريكي جو بايدن يدعو فيها الناخبين بولاية نيوهامشر الأمريكية لعدم التوجه للانتخابات التمهيدية وغيرها من حوادث الاحتيال والسرقة، مجرد بداية، والقادم سيكون أكثر وحشية.

فكرت كثيرًا، كيف تستغل الجماعات الإرهابية هذه التقنيات الحديثة، بإمكان أي جماعة أن تبث تسجيلا صوتيا ومرئيا لزعماء قُتلوا في معارك أو غارات جوية، لكنها تريد إيهام صفوف الجماعة أن زعيمها بخير، أو إيهام الخلايا النائمة في أماكن أخرى بأنه مازال حيًا، ويأمرونها بالمزيد من عمليات القتل والعنف، هذه أيضا مجرد بدايات هامشية.

وبالفعل، بثَّ تنظيم داعش الإرهابي مقطعًا مرئيًا، بعد أيام من هجومه على قاعة للموسيقى بالقرب من موسكو، مارس الماضي، لأحد عناصره المسلحين، يتحدث عن الحرب مع الدول التي تحارب الإسلام، وقالت تقارير إن هذا المقطع مزيف ومصنوع بطريقة الذكاء الاصطناعي، ما يعني أن الإرهاب بالفعل وصل للتقنية، أو بمعنى آخر التقنية جرى توصيلها له!

 أفكر كثيرًا، وأتساءل: ماذا سيفعل التزييف العميق في مجتمع يتسم عدد من مثقفيه بالكسل، وبعض نخبته بالوقوع تحت تأثير الغوغائية؟ مثقف يستثقل البحث حول حقيقة المعلومات التي ينشرها، كيف يفعل أمام التزييف العميق والاحتيال المفتوح؟

في حديث له حول مخاطر الذكاء الاصطناعي، قال العالم الأمريكي الشهير نعوم تشومسكي إن الذكاء الاصطناعي لديه القدرة على التسبب في ارتكاب جريمة بجدية. آلاف المشجعين والمستخدمين له وقعوا على عرائض تدعو إلى وقف تطويره وتنظيمه؛ بسبب الأذى الكبير الذي يمكن أن يتسبب فيه، أفهم بسهولة لماذا يوجد قلق من الأذى المباشر الذي يسببه؟ فهو تقنية عجيبة للتشهير ونشر الأخبار الكاذبة، واستغلال سذاجة الناس الذين يميلون إلى الاعتقاد بأن هذه الأمور حقيقية. فالإساءة لسمعة الآخرين سهل جدا، يمكن تركيب صوت وصورة اصطناعيا لتقليدك ويقول شيئا مشينا، كيف يمكنك إيقاف ذلك؟!

في ظني، لا أحد يمكنه إيقاف ذلك، والحل وسط كسل التأكد من المعلومة، والأخبار الزائفة، والتزييف العميق الذي ندخل عصره بثقة زائدة تشبه سذاجة الحمار الذي فلت من قبضة الأسد مرتين، في الأولى قطع أذنه، والثانية قطع ذيله، وظن أنه في الأولى قطع الأذن من أجل إلباسه تاج ملك الغابة، وفي الثانية قطع ذيله لتسهيل جلوسه على كرسي العرش، لذا ذهب إليه في المرة الثالثة بنفس راضية، فلم يفلته الأسد وقضى عليه؛ حسبما تحكى لنا قصص "كليلة ودمنة".

والحل هو أن يتمتع الإنسان منا بعقل شكوكية، فلا يستسلم لأي متداول بسهولة، لا يضم المعلومات السائلة أمامه إلى خانة اليقينيات مرة واحدة، عليه أن يتذكر أنه أمام عالم مزيف، ومحكم في التزييف، ولن تستطيع التفريق بينه وبين الحقيقي، لأنه ولسخرية الواقع أصدق من الحقيقي أيضا.

المصدر: البوابة نيوز

كلمات دلالية: التزييف العميق الذكاء الاصطناعي الأخبار الكاذبة الذکاء الاصطناعی التزییف العمیق

إقرأ أيضاً:

"أوبن إيه آي" تتهم شركات صينية بنسخ نموذج الذكاء الاصطناعي الأمريكي

اتهمت شركة "أوبن إيه آي" المالكة لتطبيق "شات جي بي تي" الأربعاء شركات صينية وغيرها بمحاولة نسخ نموذجها للذكاء الاصطناعي، داعية إلى تعزيز التعاون مع السلطات الأمريكية واتخاذ تدابير أمنية.

وأتى إعلان "أوبن إيه آي" بعدما أطلقت شركة "ديب سيك" الصينية الناشئة نموذجاً جديداً للذكاء الاصطناعي يشبه "شات جي بي تي" و"جيميناي" من غوغل وغيرهما، ولكن بجزء بسيط من التكلفة التي تكبدتها الشركات العملاقة الأمريكية، ما أدى إلى تراجع كبير في أسهم شركات التكنولوجيا في وول ستريت في بداية الأسبوع.

عملية "تقطير المعرفة"

وفي مواجهة أداء نموذج الذكاء الاصطناعي لشركة "ديب سيك" رأى خبراء في الولايات المتحدة أنها أعادت ببساطة صياغة النماذج التي تم تطويرها في الولايات المتحدة، مثل النموذج العامل بنظام "شات جي بي تي".
ورأت "أوبن إيه آي" أن المنافسين استخدموا عملية تسمى "تقطير المعرفة"،وتشمل نقل المعرفة من نموذج كبير مُدرّب إلى نموذج أصغر، بالطريقة نفسها التي ينقل بها المعلم المعرفة إلى طلابه.

قنبلة "ديب سيك" ترسل "ميتا" إلى "غرفة الحرب" - موقع 24تعيش شركة ميتا حالة من الأزمة بعد أن أطلقت شركة ديب سيك، الصينية، نموذجاً جديداً للذكاء الاصطناعي بتكلفة ضئيلة مقارنة مع منافسيه.


وقال متحدث باسم شركة "أوبن إيه آي": "نعلم أن الشركات الصينية وغيرها، تبحث باستمرار عن نسخ نماذج من شركات الذكاء الاصطناعي الأمريكية الرائدة"، مسلطاً الضوء على مسائل يطرحها هذا السلوك على الملكية الفكرية بين الولايات المتحدة والصين.
وأضاف "نعتقد أنه مع تقدمنا، من المهم أن نعمل بشكل وثيق مع الحكومة الأمريكية لإيجاد أفضل طريقة لحماية تصميماتنا الأكثر كفاءة من جهود الخصوم والمنافسين لاستخدام التكنولوجيا الأمريكية".

علي بابا تطلق نموذج ذكاء اصطناعي منافس لديب سيك - موقع 24في خطوة مفاجئة، أعلنت شركة التكنولوجيا الصينية علي بابا إصدار نموذج الذكاء الاصطناعي الجديد كوان ماكس، مؤكدةً أنه يتفوق على نموذج ديب سيك الصيني، وبرامج الذكاء الاصطناعي الأخرى.

 

انتهاك الملكية الفكرية

وقال ديفيد ساكس، رئيس قسم الذكاء الاصطناعي في إدارة الرئيس دونالد ترامب، لقناة فوكس نيوز إن "هناك أدلة واضحة جداً على أن ديب سيك استخلصت المعرفة من نماذج أوبن إيه آي".
وشددت شركة "أوبن إيه آي" على أن مثل هذه الخطوة تتعارض مع شروط استخدام نماذجها، مضيفة أنها تعمل على إيجاد طرق للكشف عن محاولات مستقبلية في هذا الصدد ومنعها.
وتواجه شركة "أوبن إيه آي" التي يرأسها سام ألتمان، اتهامات بدورها بتكرار انتهاك الملكية الفكرية لمبدعين في كل أنحاء العالم، وخصوصاً من خلال استخدام مواد محمية بحقوق التأليف والنشر لتدريب نماذج الذكاء الاصطناعي التوليدي الخاصة بها.

مقالات مشابهة

  • أوروبا تحظر نموذج الذكاء الاصطناعي "ديب سيك"
  • مؤتمر سوق العمل يناقش مستقبل الوظائف في ظل الذكاء الاصطناعي
  • حرب الذكاء الاصطناعي.. وأنظمة الغباء الصناعي!
  • "أوبن إيه آي" تتهم شركات صينية بنسخ نموذج الذكاء الاصطناعي الأمريكي
  • ورشة عن الذكاء الاصطناعي لمجلس شباب «طرق دبي»
  • مناقشة أثر الذكاء الاصطناعي في الاستدامة
  • "ديب سيك" الصيني يقلب موازين الذكاء الاصطناعي.. مفاجأة عن مميزاته
  • كل ما تريد معرفته عن DeepSeek نموذج الذكاء الاصطناعي المجاني الذي أطاح بـ"شات جي بي تي"
  • GoDaddy Airo تمكن رواد الأعمال في مصر باستخدام الذكاء الاصطناعي
  • شاهد | الذكاء الاصطناعي الصيني وماصنعه بالأمريكي! .. كاريكاتير