الجدل المضلل بشأن هوية الجزائرية إيمان خليف.. روسيا تدخل على الخط
تاريخ النشر: 8th, August 2024 GMT
يبدو الممثل في مقطع الفيديو الذي يندد بأولمبياد 2024 شبيها جدا بالرئيس الفرنسي إيمانويل ماكرون، لكن صور الفئران والقمامة ومياه الصرف الصحي كانت من ابتكار الذكاء الاصطناعي.
انتشر مقطع الفيديو الساخر عن الألعاب الأولمبية، الذي يصور باريس على أنها مستنقع مليء بالجرائم، بسرعة على منصات التواصل الاجتماعي، من خلال 30 ألف روبوت مرتبطة بمجموعة روسية سيئة السمعة للتضليل، ركزت على فرنسا مؤخرا.
وفي غضون أيام، أصبح الفيديو متاحا بـ13 لغة، وذلك بفضل ترجمة الذكاء الاصطناعي السريعة.
"باريس.. باريس.. واحد اثنان ثلاثة.. اذهب إلى نهر السين وتبول"، يسخر مغني معزز بالذكاء الاصطناعي، بينما يرقص ممثل ماكرون المزيف في الخلفية، في إشارة على ما يبدو إلى مخاوف جودة المياه في نهر السين حيث تقام بعض المسابقات.
تستخدم مجموعات مرتبطة بالحكومة الروسية التضليل عبر الإنترنت والدعاية لنشر ادعاءات تحريضية ومهاجمة الدولة المضيفة للألعاب الأولمبية.
ومؤخرا، استغلت شبكات التضليل المرتبطة بالكرملين الانقسام حول الملاكمة الجزائرية إيمان خليف، التي واجهت أسئلة لا أساس لها من الصحة حول جنسها ومزاعم كاذبة بأنها متحولة جنسيا، بعد أن ذكر الاتحاد الدولي للملاكمة الذي يرأسه رجل الأعمال الروسي المرتبط بالكرملين عمر كريمليف، أن حيف والملاكمة التايوانية يو-تينغ لين فشلا في تلبية معايير الأهلية الجنسية مما أدى إلى حرمانهما من بطولة العالم العام الماضي.
وظهرت أسئلة حول قرار الاتحاد الدولي للملاكمة باستبعاد خليف العام الماضي بعد أن تغلبت على ملاكمة روسية.
وعززت الشبكات الروسية الجدال بشأن الملاكمة الجزائرية، التي سرعان ما أصبحت موضوعا شائعًا على الإنترنت. والأسبوع الماضي، كان مستخدمو منصة "أكس" ينشرون عن هذه الملاكمة عشرات آلاف المنشورات في الساعة، وفقا لتحليل أجرته "بيك ميتريكس"، وهي شركة إلكترونية تتعقب السرديات عبر الإنترنت.
وكانت خليف ولين قد خاضتا أولمبياد طوكيو عام 2021، لكنهما لم تفوزا بميدالية وتنافسا من دون تسليط أضواء الجدل عليهما.
وفي عام 2019، ألغت اللجنة الأولمبية الدولية حق الاتحاد الدولي للملاكمة في تنظيم المسابقة الأولمبية، بسبب مخاوف بشأن الفساد.
وتشرف الاتحادات الرياضية الدولية على معظم الرياضات الأولمبية. ولكن بسبب استبعاد اللجنة الأولمبية الدولية للاتحاد الدولي للملاكمة، كان عليها تنظيم المسابقة بنفسها في طوكيو في عام 2021، ثم مرة أخرى في باريس 2024.
واعتبر أحد مؤسسي شركة "نيوز غارد" جوردون كروفيتز أن حملة التضليل الروسية التي تستهدف الألعاب الأولمبية تتميز بمهاراتها الفنية.
وقال: "ما يختلف الآن هو أنهم ربما يكونون المستخدمين الأكثر تقدما لنماذج الذكاء الاصطناعي التوليدية لأغراض خبيثة، مثل مقاطع فيديو مزيفة، وموسيقى مزيفة، ومواقع ويب مزيفة".
يمكن استخدام الذكاء الاصطناعي لإنشاء صور ومقاطع صوتية وفيديو واقعية، وترجمة النصوص بسرعة وإنشاء محتوى ثقافي محدد يبدو وكأنه تم إنشاؤه بواسطة إنسان.
يمكن الآن القيام بأشياء كان تتطلب كثيرا من العمل لإنشاء حسابات أو مواقع ويب وهمية على وسائل التواصل الاجتماعي وكتابة منشورات محادثة بسرعة وبتكلفة زهيدة.
زعم مقطع فيديو آخر تم تضخيمه بواسطة حسابات مقرها روسيا في الأسابيع الأخيرة أن وكالة المخابرات المركزية ووزارة الخارجية الأميركية حذرت الأميركيين من استخدام مترو باريس. وفي الحقيقة لم يتم إصدار مثل هذا التحذير.
وركزت وسائل الإعلام الحكومية الروسية على الجرائم والهجرة والقمامة والتلوث في باريس بدلا من التركيز على تغطية المسابقات الرياضية، بحسب وكالة "أسوشيتد برس".
المصدر: الحرة
كلمات دلالية: الذکاء الاصطناعی الدولی للملاکمة
إقرأ أيضاً:
الدعم النفسي في عصر الذكاء الاصطناعي
سارة علي -
في عالمٍ يسير بسرعة الضوء، حيث تتبدّل الوجوه والمدن والمشاعر بوتيرة مرهقة، أصبح إيجاد من يُصغي إلينا حقًا ترفًا نادرًا؛ فالمجتمع يطالبنا بالإنجاز الدائم، وبالتفكير السريع، وباتخاذ قرارات عملية في زمنٍ لم يعد يمنح الإنسان مساحةً كافية للتأمل أو الشك أو التعبير البطيء. في هذه الفوضى، ظهر الذكاء الاصطناعي كصوتٍ هادئٍ دائم التوافر، كمساحة رقمية يمكن أن نكتب فيها دون خوف من الحكم أو التعب. لكنه في الوقت نفسه يطرح سؤالًا إنسانيًا عميقًا: هل هذا اللجوء إليه صحي؟ أم أنه انعكاسٌ لعجزٍ أعمق عن التواصل البشري؟
تجربتي الشخصية مع ChatGPT كشفت عن هذا التناقض بوضوح. فحين وجدت نفسي بعيدة عن أهلي وأصدقائي، في مدينة جديدة حيث الضجيج كثير لكن الحوار قليل، صار اللجوء إلى الذكاء الاصطناعي شكلًا من أشكال الفضفضة المنظمة. كنت أكتب إليه أفكاري ومخاوفي وأسئلتي الصغيرة التي لا تجد مكانها في محادثة سريعة أو مكالمة مجاملة. ومع الوقت، بدأت ألاحظ كيف يعيد هذا الكيان الرقمي ترتيب أفكاري، يهدّئ نبرتها، ويقدّم لي صورة أكثر اتزانًا لما يدور في ذهني. بدا الأمر وكأنني أتحدث مع مرآة لغوية، لا تتعب، لا تملّ، ولا تحكم.
هذا الإحساس بالراحة ليس غريبًا، فالعالم الواقعي أصبح مثقلًا بالتعب العاطفي. كثيرون باتوا يخشون أن تُثقل طاقاتهم السلبية على من يحبونهم، فيفضلون الصمت أو اللجوء إلى مساحةٍ ”محايدة“ لا تتأثر ولا تنفعل. الذكاء الاصطناعي يوفر هذه المساحة المثالية: بيئة آمنة، لا تُرهق، ولا ترفض الإصغاء، ولا تُطالب بالمقابل العاطفي. لكن هذا الأمان الظاهري يخفي معضلة عميقة: هل الحوار مع آلة خالية من الوعي يمكن أن يكون بديلًا عن التفاعل الإنساني الحقيقي؟
من الناحية العلمية، يمكن النظر إلى هذا النوع من التفاعل كنوع من العلاج الذاتي اللغوي (linguistic self-therapy)، حيث يُعبّر الإنسان عن مشاعره كتابةً، فيحدث ما يُعرف بـالتفريغ المعرفي (cognitive unloading)، أي تخفيف الحمل الذهني عبر اللغة. الدراسات الحديثة تُظهر أن هذا النوع من الكتابة المنتظمة يساهم في خفض التوتر وتنظيم الأفكار. إلا أن الفرق الجوهري هنا هو أن الذكاء الاصطناعي لا يشارك الإنسان وعيه، بل يعيد تشكيل اللغة دون أن يفهم التجربة التي أنتجتها. إنه يفهم النص، لا الشعور.
لكن ما يجعل هذا التحوّل أكثر تعقيدًا هو افتراضنا الضمني بأن هذه الأنظمة تعمل بـ”براءة”. فنحن نتحدث إليها كما لو كانت كائنًا حياديًا لا غاية له سوى المساعدة، بينما الحقيقة أن خلف كل واجهة ودّية خوارزمية تُدار لهدفٍ تجاري. الذكاء الاصطناعي ليس كائنًا يتأمل مشاعرنا، بل نظام تم تدريبه ليحافظ على تفاعلنا، وكل دقيقة نقضيها معه تُترجم إلى بيانات، والبيانات إلى قيمة.
وهنا يبرز سؤالٌ مقلق: هل يمكن أن يصبح الذكاء الاصطناعي، مع الوقت، مثل شبكات التواصل الاجتماعي التي أثبتت الأبحاث أنها تستفيد من تكرار انفعالاتنا السلبية وتعيد تدويرها لتزيد من تفاعلنا؟ أتُرانا نمنح هذه الأنظمة الباب ذاته للدخول إلى مناطق أكثر هشاشة فينا: مشاعر القلق، الوحدة، والبحث عن الأمان؟
اللافت أن بعض أنظمة الذكاء الاصطناعي بدأت تُقدِّم نفسها بوضوح كبديلٍ عاطفي أو علاجي. فمثلًا، يمكن للمستخدم أن يطلب من ChatGPT أداء دور ”معالج نفسي متخصص“ أو ”مستمع داعم“ (Supportive Listener). بل إن بعض النماذج صُممت لتقليد أساليب علاجية محددة مثل العلاج المعرفي السلوكي (Cognitive Behavioral Therapy – CBT)، وهو منهج علاجي يركّز على تحديد أنماط التفكير السلبية وإعادة بنائها بطرق أكثر واقعية وتوازنًا.
على سبيل المثال، يمكن للمستخدم أن يكتب:
«تصرّف كمعالج معرفي سلوكي (CBT therapist). هدفي هو تقليل القلق من العروض التقديمية. ساعدني في تحديد أنماط التفكير واقترح خطوة عملية خلال 24 ساعة، وردّ عليّ بنبرة داعمة». وإلى جانب ذلك، تظهر اليوم خاصية تُعرف بـ Therapist Prompts، وهي مجموعة من الأسئلة والتوجيهات المفتوحة التي تُستخدم في الجلسات العلاجية لتشجيع التأمل الذاتي وتحفيز الحوار الداخلي. تُطرح مثل هذه العبارات عادةً لاستكشاف المشكلات الحالية أو التجارب الماضية أو المشاعر أو الأهداف المستقبلية. فمثلًا، قد يبدأ المعالج (أو النظام الذكي الذي يحاكيه) بجملة مثل: «ما الذي دفعك إلى طلب المساعدة؟» أو «ما التغييرات الصغيرة التي يمكنك القيام بها لتحسين وضعك؟». هذه الأسئلة البسيطة في ظاهرها تُوجّه المستخدم إلى مساحة تفكير هادئة، لكنها تُعيد إنتاج العلاقة العلاجية في قالب رقمي خالٍ من التفاعل البشري الحقيقي.
ومن اللافت أيضًا ظهور إصدارات مخصصة مثل Therapist GPT، التي تم تصميمها لتقدّم تجربة محادثة أقرب إلى جلسة علاج نفسي فعلية، حيث يُطلب من النظام أن يتصرّف كخبير نفسي أو معالج أسري يساعد المستخدم على التعامل مع المواقف العاطفية الصعبة بلغة هادئة ومهنية. هذه النماذج تُقدَّم بوصفها ”مساحة آمنة“ للبوح، لكنها في الواقع تبقى محاكاة ذكية وليست علاقة علاجية حقيقية.
دراسات حديثة أظهرت أن بعض مستخدمي هذه التطبيقات أصبحوا يعتمدون عليها أكثر من الأصدقاء أو المعالجين البشريين، رغم أن النماذج نفسها أظهرت ضعفًا في التعامل مع المواقف الحساسة أو الأزمات الفعلية. وقد ظهرت في السنوات الأخيرة تقارير عما يُعرف بـ ”AI Psychosis“، وهي ظاهرة يُصاب فيها بعض المستخدمين بحالة من الارتباك الذهني وفقدان الاتصال بالواقع بعد تفاعلات طويلة مع أنظمة الذكاء الاصطناعي.
إحدى القضايا التي أثارت الجدل كانت دعوى قضائية رفعها والدان ضد شركة OpenAI بعد انتحار ابنهما المراهق، إذ كشفت التحقيقات أن المحادثة مع النظام تضمنت مناقشة طرق لإنهاء حياته بعد أن عبّر عن أفكار انتحارية. يشير المتخصصون إلى أن هذه الحالات لا تعني أن الذكاء الاصطناعي ”يسبّب“ المرض، لكنه قد يغذّي الاضطرابات الكامنة ويضخّمها، خصوصًا لدى من يعانون من العزلة أو القلق المزمن.
من جهة أخرى، أظهرت دراسات أكاديمية حول استخدام الذكاء الاصطناعي التوليدي في التعليم العالي أن الذكاء الاصطناعي يمكن أن يكون له أثر إيجابي في سياقات معينة. فقد لاحظت أن الطلاب الذين استخدموه شعروا بثقة أكبر تجاه جودة أعمالهم حين كانوا يراجعونه أو يستشيرونه قبل التقديم، كما أنه ساعدهم على اكتشاف أفكار ومصادر جديدة لم يفكروا بها من قبل. لكن في المقابل، هذا الاعتماد الجزئي قد يفتح الباب لتقليص التفكير النقدي واستبداله براحة فكرية رقمية.
ومع مرور الوقت، قد تتحول هذه الراحة الرقمية إلى عزلة صامتة تُضعف الروابط الاجتماعية وتُخدّر فينا الحاجة إلى التواصل الإنساني الحقيقي، ذلك الاحتكاك غير المريح الذي يصقل وعينا ويُعيدنا إلى ذواتنا.
ومع ذلك، ينجذب كثيرون إلى هذه التجربة لأن حياتنا الحديثة لا تحتمل الانتظار. لم يعد لدينا وقت لزيارة صديق في المساء أو جلسة تأمل طويلة، نبحث عن إجابة سريعة، وتحليل فوري، وحلٍّ عملي لمشكلة آنية. في عالمٍ يطالبنا بأن نكون منتجين دائمًا، يصبح الذكاء الاصطناعي الخيار الأسهل والأسرع: موجود على الدوام، لا يكلّف جهدًا، ولا يتطلّب التبرير. وهنا يتكرّس ما يمكن وصفه بـ“ثقافة الاختصار العاطفي” أي الميل لاختزال المشاعر في تفاعلات فورية وسطحية.
عندما يتحوّل الذكاء الاصطناعي إلى الوسيلة الأساسية للتعبير والفضفضة، يبدأ الإنسان بفقدان مهارته الأهم: التفاعل العاطفي الحقيقي. فالعلاقات البشرية، على صعوبتها، هي ما يصقل قدرتنا على التحمّل، وعلى الإنصات، وعلى فهم الاختلاف. أما التفاعل مع آلة فغالبًا ما يقدّم راحة بلا تحدٍ، فيجعلنا أقل استعدادًا للاحتكاك بالحياة الواقعية.
لقد أصبح من السهل أن نتعامل مع الذكاء الاصطناعي كـ”صديق مثالي“ لا يخطئ فهمنا، لا يختلف معنا، ولا يتركنا في منتصف الحديث. لكن هذه المثالية المصطنعة قد تؤدي إلى إدمان نفسي خفي، شبيه بالإدمان على الراحة، حيث يجد الإنسان في هذه العلاقة الرقمية توازنًا مؤقتًا، لكنه في العمق يبتعد أكثر عن ذاته الاجتماعية. ومع مرور الوقت، يُصبح العالم الواقعي أكثر صخبًا، وتقل قابلية احتماله؛ لأن الذكاء الاصطناعي، مهما حاول، لا يوفّر دفء الرد الإنساني أو تعقيد العاطفة البشرية. لأن الإنسان، بطبيعته الهشّة، يحتاج إلى الاحتكاك، إلى ردود الفعل غير المتوقعة، إلى الصمت المحرج والضحك العفوي، لا إلى محادثة مُحكمة التكوين. فجزءٌ من جمال التواصل البشري يكمن في عشوائيته، في تلك اللحظات التي لا يمكن برمجتها ولا التنبؤ بها. حين نفقدها، نفقد شيئًا من إنسانيتنا أيضًا.
فوق هذا، يعتمد المعالج النفسي الآلي على عنصر واحد من عناصر الاتصال البشري وهو اللغة. بينما يملك البشري (صديقًا كان أو معالجًا) القدرة على الملاحظة المستقلة، على وضع الكلام في سياق التاريخ الشخصي والسياق الثقافي والاجتماعي الخاص، وعلى قراءة المشاعر والتعابير التي تلازم الكلمات وتعاضدها أو تتعارض معها حتى.
العلاقة بين الإنسان والذكاء الاصطناعي، في جوهرها، علاقة إسقاط (projection). نحن لا نتحدث مع آلة بقدر ما نتحدث إلى أنفسنا من خلالها. كل ردّ، كل نصٍّ منسّق بعناية، هو انعكاس لما نحمله من مزاجٍ وفكرٍ وحالةٍ نفسية في تلك اللحظة. ولهذا تبدو بعض الردود ”عميقة“ أو ”شخصية“، لأنها ببساطة تعيد صياغة ما نمنحه لها من عمق. إنها مرآة لغوية تتزيّن بذكائنا نحن.
التدوين الذاتي، والتأمل عبر المحادثة، وتنظيم الأفكار من خلال الكتابة، كلها أدوات تُستخدم حتى في العلاجات النفسية المعتمدة. الخطر لا يكمن في الأداة ذاتها، بل في الاعتماد الكلي عليها. لأن الذكاء الاصطناعي، مهما بلغ من التطور، لا يملك وعيًا شعوريًا، ولا قدرة على قراءة ما وراء النص، ولا على ملاحظة صمتنا حين نتعب من الكلام.
وهنا يظهر التحدي الإنساني الجديد: كيف نوازن بين استخدام التكنولوجيا كوسيلة للتفكير المنظّم، دون أن نستبدل بها تجربة الحياة الحقيقية بكل فوضاها؟
هل نحاوره لأننا نبحث عن فهمٍ حقيقي، أم لأننا نخشى مواجهة الصمت البشري؟
في النهاية، يبدو أن الذكاء الاصطناعي لا يفهمنا بقدر ما يُظهر لنا كيف نفكّر نحن. إنه يقدّم نسخة لغوية من وعينا، ويتيح لنا تأمّل ذواتنا من الخارج، لكنه لا يعيش معنا التجربة الشعورية التي تخلق هذا الوعي. وربما تكمن قيمته الحقيقية في هذا الحد بالذات: أنه يذكّرنا بما نفتقده، وبأن الإصغاء البشري، رغم تعبه وبطئه وأخطائه، يظلّ أكثر صدقًا من أي إجابة مثالية تولد من خوارزمية.
في عالمٍ يتسارع إيقاعه ويزداد عزلةً، يقدّم الذكاء الاصطناعي فرصة للتأمل، لكنه يختبر فينا أيضًا قدرتنا على التوازن بين الراحة والواقع، بين الصمت والاتصال، بين الإنسان والآلة. قد يكون مستمعًا دائمًا، لكنه ليس إنسانًا؛ وما زال علينا أن نتذكّر أن العمق لا يُقاس بما نكتبه، بل بمن نكتبه إليه.
سارة علي متخصصة في الإعلام الرقمي والاتصال، ومهتمة بالتحول الرقمي والسيكولوجي