تابع أحدث الأخبار عبر تطبيق
أكثر ما يمكن أن يشكل خطرًا قويًا ومدمرًا هو التضليل، تزييف وعي الناس، وأكثر ما هو مؤسف أن يكون مصدره أو حلقة من حلقاته شخص محسوب على الوسط الثقافي، شخص نحسبه مفكرًا، قارئًا، واعيًا، لأن هذه الصفات تميزه عن بقية الناس، تصنع له مساحة من الثقة والصدق في القلوب، لكنه في الحقيقة مضلل.
قراءة الصفحات الرسمية لبعض الكتاب والمثقفين والشعراء، تشير إلى حالة من الاستسهال واللامبالاة، فيها تجري إعادة تدوير الأخبار الكاذبة والشائعات، تلاحظ أنه بسهولة يرص مجموعة من الأخبار المتداولة بعضها صحيح والآخر مزيف، يصنع ظاهرة ويعلق عليها بثقة بالغة، وتظهر انفعالاته من بين سطوره، وأسأل نفسي: هذا المثقف العظيم، لماذا لم يفتح صفحة جوجل ليقوم بعملية بحث بسيطة للتأكد من المصدر؟ هل تداوله بين الصفحات الافتراضية جعله يكتسب قوة الحقيقة؟.
هنا لا أتحدث عن الجمهور العادي، الذي يندفع وراء الحماس أو الفرح أو الغضب لمشاركة أي محتوى على فيسبوك دون التحقق من مصدره، لكنك أمام عدد من أدعياء الثقافة والشعر والكتابة والرواية، صفحاتهم مليئة بالأخبار الملفقة، فضلًا عن ترديد الشائعات، ليزيد من ترسيخ حالة الفوضى، فلا أهمية للتأكيد من الخبر أو الشائعة.
ولا يكتفي أن يكون الشخص مساعدًا في زيادة موجة الأخبار الكاذبة، والمعلومات الزائفة، بل يصل الأمر لأن يكون مصدرها ومنبعها.
كسل بعض المثقفين ليس وحده في هذا المشهد المخيف، إنما يتبعه بالضرورة الانجراف مع موجة الغوغائية، لا تقف لحظة، لا تفكر، لا تتأمل، فقط انجرف وتحدث مثلما يتحدث الجميع، لا تسمح لأحد أن يختلف معك، لا تعطه فرصة للتعبير عن رأيه، انجرف دون وعي، لن يرضى عنك أحد طالما لم تنجرف مع الغوغائية، لذا فإن فحص الأخبار، والتوقف قليلا من أجل التفكير، وعرقلة الغوغائية عندما تصل إليك، مطالب صعبة.
والأصعب ليس الكشف عن الحقائق في زمن التزييف، إنما انتقالنا لعصر الذكاء الاصطناعي التوليدي الذي يتمتع بفهم وتوليد استجابات دقيقة ومناسبة للسياق، ويتيح قدرات إضافية وعالية من التزييف، يسميها الخبراء بالتزييف العميق.
الخبراء قالوا أيضا إن الحوادث التي وقعت مثل إجراء مكالمة بصوت الرئيس الأمريكي جو بايدن يدعو فيها الناخبين بولاية نيوهامشر الأمريكية لعدم التوجه للانتخابات التمهيدية وغيرها من حوادث الاحتيال والسرقة، مجرد بداية، والقادم سيكون أكثر وحشية.
فكرت كثيرًا، كيف تستغل الجماعات الإرهابية هذه التقنيات الحديثة، بإمكان أي جماعة أن تبث تسجيلا صوتيا ومرئيا لزعماء قُتلوا في معارك أو غارات جوية، لكنها تريد إيهام صفوف الجماعة أن زعيمها بخير، أو إيهام الخلايا النائمة في أماكن أخرى بأنه مازال حيًا، ويأمرونها بالمزيد من عمليات القتل والعنف، هذه أيضا مجرد بدايات هامشية.
وبالفعل، بثَّ تنظيم داعش الإرهابي مقطعًا مرئيًا، بعد أيام من هجومه على قاعة للموسيقى بالقرب من موسكو، مارس الماضي، لأحد عناصره المسلحين، يتحدث عن الحرب مع الدول التي تحارب الإسلام، وقالت تقارير إن هذا المقطع مزيف ومصنوع بطريقة الذكاء الاصطناعي، ما يعني أن الإرهاب بالفعل وصل للتقنية، أو بمعنى آخر التقنية جرى توصيلها له!
أفكر كثيرًا، وأتساءل: ماذا سيفعل التزييف العميق في مجتمع يتسم عدد من مثقفيه بالكسل، وبعض نخبته بالوقوع تحت تأثير الغوغائية؟ مثقف يستثقل البحث حول حقيقة المعلومات التي ينشرها، كيف يفعل أمام التزييف العميق والاحتيال المفتوح؟
في حديث له حول مخاطر الذكاء الاصطناعي، قال العالم الأمريكي الشهير نعوم تشومسكي إن الذكاء الاصطناعي لديه القدرة على التسبب في ارتكاب جريمة بجدية. آلاف المشجعين والمستخدمين له وقعوا على عرائض تدعو إلى وقف تطويره وتنظيمه؛ بسبب الأذى الكبير الذي يمكن أن يتسبب فيه، أفهم بسهولة لماذا يوجد قلق من الأذى المباشر الذي يسببه؟ فهو تقنية عجيبة للتشهير ونشر الأخبار الكاذبة، واستغلال سذاجة الناس الذين يميلون إلى الاعتقاد بأن هذه الأمور حقيقية. فالإساءة لسمعة الآخرين سهل جدا، يمكن تركيب صوت وصورة اصطناعيا لتقليدك ويقول شيئا مشينا، كيف يمكنك إيقاف ذلك؟!
في ظني، لا أحد يمكنه إيقاف ذلك، والحل وسط كسل التأكد من المعلومة، والأخبار الزائفة، والتزييف العميق الذي ندخل عصره بثقة زائدة تشبه سذاجة الحمار الذي فلت من قبضة الأسد مرتين، في الأولى قطع أذنه، والثانية قطع ذيله، وظن أنه في الأولى قطع الأذن من أجل إلباسه تاج ملك الغابة، وفي الثانية قطع ذيله لتسهيل جلوسه على كرسي العرش، لذا ذهب إليه في المرة الثالثة بنفس راضية، فلم يفلته الأسد وقضى عليه؛ حسبما تحكى لنا قصص "كليلة ودمنة".
والحل هو أن يتمتع الإنسان منا بعقل شكوكية، فلا يستسلم لأي متداول بسهولة، لا يضم المعلومات السائلة أمامه إلى خانة اليقينيات مرة واحدة، عليه أن يتذكر أنه أمام عالم مزيف، ومحكم في التزييف، ولن تستطيع التفريق بينه وبين الحقيقي، لأنه ولسخرية الواقع أصدق من الحقيقي أيضا.
المصدر: البوابة نيوز
كلمات دلالية: التزييف العميق الذكاء الاصطناعي الأخبار الكاذبة الذکاء الاصطناعی التزییف العمیق
إقرأ أيضاً:
"أوبن إيه آي" تتهم شركات صينية بنسخ نموذج الذكاء الاصطناعي الأمريكي
اتهمت شركة "أوبن إيه آي" المالكة لتطبيق "شات جي بي تي" الأربعاء شركات صينية وغيرها بمحاولة نسخ نموذجها للذكاء الاصطناعي، داعية إلى تعزيز التعاون مع السلطات الأمريكية واتخاذ تدابير أمنية.
وأتى إعلان "أوبن إيه آي" بعدما أطلقت شركة "ديب سيك" الصينية الناشئة نموذجاً جديداً للذكاء الاصطناعي يشبه "شات جي بي تي" و"جيميناي" من غوغل وغيرهما، ولكن بجزء بسيط من التكلفة التي تكبدتها الشركات العملاقة الأمريكية، ما أدى إلى تراجع كبير في أسهم شركات التكنولوجيا في وول ستريت في بداية الأسبوع.
عملية "تقطير المعرفة"وفي مواجهة أداء نموذج الذكاء الاصطناعي لشركة "ديب سيك" رأى خبراء في الولايات المتحدة أنها أعادت ببساطة صياغة النماذج التي تم تطويرها في الولايات المتحدة، مثل النموذج العامل بنظام "شات جي بي تي".
ورأت "أوبن إيه آي" أن المنافسين استخدموا عملية تسمى "تقطير المعرفة"،وتشمل نقل المعرفة من نموذج كبير مُدرّب إلى نموذج أصغر، بالطريقة نفسها التي ينقل بها المعلم المعرفة إلى طلابه.
وقال متحدث باسم شركة "أوبن إيه آي": "نعلم أن الشركات الصينية وغيرها، تبحث باستمرار عن نسخ نماذج من شركات الذكاء الاصطناعي الأمريكية الرائدة"، مسلطاً الضوء على مسائل يطرحها هذا السلوك على الملكية الفكرية بين الولايات المتحدة والصين.
وأضاف "نعتقد أنه مع تقدمنا، من المهم أن نعمل بشكل وثيق مع الحكومة الأمريكية لإيجاد أفضل طريقة لحماية تصميماتنا الأكثر كفاءة من جهود الخصوم والمنافسين لاستخدام التكنولوجيا الأمريكية".
انتهاك الملكية الفكرية
وقال ديفيد ساكس، رئيس قسم الذكاء الاصطناعي في إدارة الرئيس دونالد ترامب، لقناة فوكس نيوز إن "هناك أدلة واضحة جداً على أن ديب سيك استخلصت المعرفة من نماذج أوبن إيه آي".
وشددت شركة "أوبن إيه آي" على أن مثل هذه الخطوة تتعارض مع شروط استخدام نماذجها، مضيفة أنها تعمل على إيجاد طرق للكشف عن محاولات مستقبلية في هذا الصدد ومنعها.
وتواجه شركة "أوبن إيه آي" التي يرأسها سام ألتمان، اتهامات بدورها بتكرار انتهاك الملكية الفكرية لمبدعين في كل أنحاء العالم، وخصوصاً من خلال استخدام مواد محمية بحقوق التأليف والنشر لتدريب نماذج الذكاء الاصطناعي التوليدي الخاصة بها.