احتجت قبل أيام لتتاوريال يُرشدني إلى الكيفية التي تعمل بها منصة ما. لجأتُ كالعادة إلى يوتيوب. فتحت الفيديو الأول، ثمة شيء غير مريح في الطريقة التي تتحدث وتتحرك بها اليوتيوبر. لم استطع التركيز فيما تقول، كنتُ منغمسة تماما في شعور عدم الارتياح ذلك، فقاطعتها وذهبت للفيديو التالي. الآخر كان أيضا يتحدث بالطريقة الإيجابية الروبوتية ذاتها والاعتذارية تقريبا.
لنأخذ خطوة للوراء، لاحظتم بالطبع أنه أيا يكن موضوع خرابيش جوجل google doodle، فإنكم تجدون فيديو واحدا على الأقل يتحدث عن الموضوع. الفيديو غالبا ما يتكون من سرد بائس، صور بائسة، وصوت آلي مُولّد بأحد أدوات القراءة الآلية للنصوص speech synthesizer. يُمكن للواحد منّا أن يُخمن وُجود برنامج ما يبحث على نحو تلقائي عن موضوع الخربشة، يلجأ للنتيجة (أو النتائج) الأولى من البحث، ويُحول النص إلى كلام. برامج شبيهة يُمكنها أن تذهب إلى ريديت reddit مثلا، تأخذ سؤالا ما وتبدأ في قراءة الإجابة (الإجابات) على الاستفسار. تُُكافح منصة اليوتيوب مثل هذه السلوكيات لا بالحضر، ولكن بالحرمان من التربح المالي. الأمر الذي يُحيلنا إلى نقاشات أخلاقية حول ما إذا كان عادلا أن يُحرم البُكم من «الاسترزاق» من التقنيات التي تُعينهم على التغلب على التحديات التي وُلدوا بها. عموما، هذا أمر لا مجال لمعالجته اليوم. لنُكمل.
إذا ما كانت آليات الخلق الأوتوماتيكي متوفرة لنا قبل الديب-فيك deepfakes، تخيلوا ما الذي يُمكن فعله اليوم. لكن ردود فعلنا نادرًا ما تكون الإعجاب، عدم الارتياح هو ما يسيطر، وما يمنعنا من مواصلة المشاهدة. ثمة فرضية في علم النفس والجمال تقبض على العلاقة بين مدى مشابهة عنصر ما للإنسان وردود فعلنا العاطفية تجاهه. تفيد الفرضية أن مدى تشابه (روبوت، دمية، شخصية كرتونية) مع الإنسان يُثير فينا الإعجاب والتعاطف، لكنه متى ما تجاوزا حدا معينا فإنه يُثير فينا النفور. من هنا تأتي تسمية الظاهرة Uncanny valley. هذا ما يدفع بعض صناع الأفلام المعتمدة على تقنيات CGI يختارون أن ينتجوا أعمالا ذات طابع كرتوني، رغم الإمكانيات الهائلة لإنتاج صور تُقارب الحقيقة.
يشرح هذا قليلا لمَ أميل لموقف «عساني ما تعلمت»، على أن أجلس وأتسامح مع الإنسان المزيف الذي يُخبرني كيف تُفعل الأشياء. لا يهمني كثيرا إن كان روبوتا من يحدثني، يجوز أنهم أُناس حقيقيون أفسدتهم البولشيتيه التي تحكمنا، والتي لا مناص منها، ولا نعرف كيف بدأت. أعني خصلة أن تتكلم دون أن تقول شيئا، وتُسهب دون أن تضيف جديدا. سمة تُحفزها وتستديمها برامج مثل ChatGPT والتي تُطنب وتُطيل لتُزيف نوعا من التعقيد والعمق.
ثمة عامل آخر، وهو الشعور بأنك ضحية خدعة ما. فلو أن صانع المحتوى أفصح عن استخدام البوتز في توليد، أو تقديم المحتوى، لارتحنا بعض الشيء.
ثمة بالطبع جهود توجه لصياغة تنظيمات بهذا الاتجاه. أي التوضيح أن صوتا ما في أنظمة مراكز الاتصال، أو نص ما في مقالك أو بحثك، قد تم توليده آليا. إلا أن شعب الإنترنت -كما هي العادة- لا يلتفتُ للتنظيمات، ويريد أن يضع يده في كل ما هو مثير جديد وحبذا لو كان مربحا.
لعل الوعي بمثل هذه المشاعر يُشجع صناع المحتوى على احتضان عيوبهم (في الشكل، النطق، الإيماءات) لأن عدم الكامل كما يبدو، هو الدليل الأسهل لإثبات أنك لست روبوتا.
المصدر: لجريدة عمان
كلمات دلالية: التی ت
إقرأ أيضاً:
دراسة جديدة لـ«تريندز»: استراتيجيات مبتكرة لمكافحة التطرف في العصر الرقمي
أبوظبي (الاتحاد)
أخبار ذات صلة «تريندز»: تحولات جذرية في المشهد العالمي لعام 2025 فرنسا تنفذ ضربات على مواقع لـ«داعش» في سورياأكدت دراسة جديدة لمركز تريندز للبحوث والاستشارات أن التطرف يمثل تهديداً عالمياً متزايداً، وأن تعزيز الأمن الفكري من خلال الجمع بين التكنولوجيا والمشاركة المجتمعية والإصلاحات التنظيمية، بات ضرورة للمساهمة في بناء مجتمعات قادرة على مواجهة الأيديولوجيات المتطرفة.
واستعرضت الدراسة التي حملت عنوان «الأمن الفكري: استراتيجيات مبتكرة لمكافحة التطرف في العصر الرقمي»، كيف أصبحت الوسائل الرقمية أدوات فعالة لاستشراء التطرف ونشر الكراهية، إلى جانب إمكانياتها كوسيلة للتصدي له.
وتناولت الدراسة، التي أعدها باللغة الإنجليزية، الباحث حمد الحوسني، رئيس قسم الإسلام السياسي في «تريندز»، دور المنصات الرقمية في نشر الأيديولوجيات المتطرفة وآليات مواجهتها باستخدام التكنولوجيا والسياسات التوعوية والمجتمعية.
وتطرقت محاور الدراسة الأساسية إلى الإعلام الرقمي وخطر الغرف المغلقة، مسلطة الضوء على كيفية استغلال الجماعات المتطرفة وسائل التواصل الاجتماعي والمنتديات الرقمية لنشر الدعاية والتأثير على الفئات الأكثر هشاشة في المجتمع، خاصة الشباب والمهمشين.
كما تناولت الأيديولوجيات الرقمية، وصناعة الكراهية، مستعرضة كيف يتم استغلال السرديات التاريخية والثقافية والدينية لتحريف الحقائق وتحفيز العنف، مما يؤدي إلى انقسامات مجتمعية عميقة.
وركزت الدراسة على التكنولوجيا كأداة لمواجهة التطرف، مبينة دور الذكاء الاصطناعي وتعلم الآلة في اكتشاف المحتوى المتطرف على الإنترنت، مع التأكيد على الحاجة إلى جهود أكثر شمولاً تتجاوز الحلول التقنية.
كما ناقشت الدراسة الشبكات المظلمة ودورها في دعم الإرهاب، مشيرة إلى كيفية استغلال الجماعات المتطرفة الشبكة المظلمة والعملات الرقمية لتمويل الأنشطة الإرهابية ونشر المحتوى المحظور، مشددة على ضرورة التعاون الدولي لتعقب هذه العمليات.
واقترحت الدراسة توصيات لمواجهة هذه التحديات من أبرزها تنظيم برامج توعية لتعزيز التفكير النقدي والمواطنة الرقمية، وتعاون دولي لتنظيم عمل الخوارزميات على منصات التواصل الاجتماعي، إضافة إلى تعزيز المبادرات المجتمعية للتصدي لجذور التطرف، ووضع سياسات شفافة لضبط المحتوى من دون المساس بحرية التعبير.