صناعة الأوهام.. كيف تستغل الدول الذكاء الاصطناعي في أجندتها الإعلامية؟
تاريخ النشر: 5th, July 2024 GMT
في نوفمبر/تشرين الثاني الماضي أطلقت أولغا لويك -وهي طالبة من أوكرانيا تدرس في جامعة بنسلفانيا- قناتها الشخصية على منصة يوتيوب.
لم تحصل أولغا على الجمهور الذي كانت تنتظره، لكنها بعد فترة وجيزة من إطلاق القناة وجدت أن معظم جمهورها يأتي من منصات التواصل الاجتماعي في الصين، والأهم أنها لم تكن هي من تظهر في مقاطع الفيديو، بل كانت نسخة من صورتها نسجها الذكاء الاصطناعي، كما أشار تقرير لرويترز.
كانت شبيهاتها الرقميات مثل "ناتاشا" يدعين أنهن نساء روسيات يتقن اللغة الصينية بطلاقة ويشكرن الصين على دعمها لروسيا ضد الغرب، ويحاولن كسب بعض الأموال عبر بيع منتجات مثل الحلوى الروسية.
والمثير للدهشة أكثر أن تلك الحسابات الوهمية امتلكت مئات الآلاف من المتابعين في الصين، أكثر بكثير من متابعي أولغا نفسها على منصة يوتيوب.
وتمثل تلك الواقعة نموذجا لعدد كبير مما يبدو للوهلة الأولى أنهن فتيات روسيات على وسائل التواصل الاجتماعي في الصين يعبرن عن حبهن لها باللغة الصينية بطلاقة ويذكرن أنهن يسعين إلى دعم روسيا في الحرب من خلال بيع الواردات من وطنهن الأم، ولكن لا وجود لأي منهن.
ويذكر الخبراء أن صور تلك الفتيات مولدة بالذكاء الاصطناعي عبر انتحال وسرقة مقاطع لنساء حقيقيات على الإنترنت، وغالبا دون علمهن، وتُستخدم مقاطع الفيديو المزيفة للترويج لمنتجات للرجال في الصين، وفقا لتقرير رويترز.
ويذكر جيم تشاي الرئيس التنفيذي لشركة "إكسموف" -وهي شركة تعمل على تطوير تقنيات الذكاء الاصطناعي- أن تقنية إنتاج مثل تلك الصور أصبحت "شائعة للغاية لأن كثيرين يستخدمونها في الصين".
وعلى نطاق أوسع، لفتت تلك الواقعة الانتباه إلى مخاطر تقنيات الذكاء الاصطناعي التي تتطور بوتيرة متسارعة للغاية، فقد ازدادت المخاوف بشأن مساهمة الذكاء الاصطناعي في نشر المعلومات المضللة والأخبار المزيفة والاستخدام في نشر السرديات الموجهة أو في الدعاية الإعلامية خلال الأشهر الماضية، وسط تزايد انتشار أنظمة الذكاء الاصطناعي التوليدي مثل روبوت المحادثة "شات جي بي تي".
زاد انتشار أنظمة الذكاء الاصطناعي التوليدي مثل روبوت المحادثة "شات جي بي تي" (شترستوك) مكسب الكاذبتستعين الحكومات والأطراف والجهات السياسية المؤثرة في مختلف دول العالم -سواء في الأنظمة الديمقراطية أو السلطوية- بالذكاء الاصطناعي لتوليد النصوص والصور والفيديو بهدف توجيه الرأي العام لصالحها ولفرض رقابة آلية على المحتوى المنتقد لها على الإنترنت.
وفي التقرير السنوي -الذي صدر في أكتوبر/تشرين الأول العام الماضي- وثق الباحثون في منظمة فريدوم هاوس -وهي إحدى منظمات الدفاع عن حقوق الإنسان- استخدام الذكاء الاصطناعي التوليدي في 16 دولة "لزرع الشك أو تشويه سمعة المعارضين أو التأثير على الحوار العام".
وقد توصل التقرير إلى أن حرية الإنترنت العالمية انخفضت للعام الـ13 على التوالي مدفوعة جزئيا بانتشار تقنيات الذكاء الاصطناعي.
ويذكر الباحثون أن واحدة من أهم النتائج التي توصلوا إليها تتعلق بتغير أسلوب استخدام الحكومات الذكاء الاصطناعي، ومع تطور تلك التقنيات بصورة متزايدة تواصل جهات سياسية استغلالها لتضخيم المعلومات المضللة لتخدم مصالحها.
ورغم أن تلك التطورات ليست مفاجئة بالضرورة فإن إحدى أكثر النتائج إثارة للاهتمام هي أن سهولة الوصول إلى الذكاء الاصطناعي التوليدي على نحو واسع النطاق قد تضعف الثقة في الحقائق التي يمكن إثباتها، وفقا للتقرير.
ومع انتشار المحتوى الذي يولده الذكاء الاصطناعي على الإنترنت بصورة طبيعية قد يسمح هذا للجهات السياسية بالتشكيك في المعلومات الموثوقة والحقيقية، وهي ظاهرة تعرف بـ"مكسب الكاذب"، إذ يؤدي الحذر من التزييف إلى زيادة تشكك الجمهور في المعلومات الصحيحة، خاصة في أوقات الأزمات أو الصراعات السياسية عندما تتفشى المعلومات الكاذبة.
الذكاء الاصطناعي يسهل المهمةتعمل تقنيات الذكاء الاصطناعي على أتمتة صناعة الأخبار المضللة، مما أدى إلى انفجار في محتوى المواقع على شبكة الإنترنت الذي يحاكي مقالات حقيقية لكنها تنشر في المقابل معلومات كاذبة عن الانتخابات والحروب والكوارث الطبيعية.
وخلال العام الماضي ازدادت المواقع التي تنشر مقالات مضللة من إنتاج الذكاء الاصطناعي بأكثر من 1000%، إذ ارتفع عددها من 49 موقعا إلى أكثر من 600 موقع، وفقا لتقرير من منظمة "نيوز غارد" التي تتعقب المعلومات المضللة.
ومن الناحية التاريخية، اعتمدت عمليات الدعاية على جيوش من العاملين بأجور منخفضة أو منظمات استخباراتية شديدة التنسيق لإنشاء مواقع على الإنترنت تبدو كأنها حقيقية.
لكن تقنيات الذكاء الاصطناعي تسهّل على أي شخص تقريبا -سواء كان جزءا من وكالة تجسس أو مجرد مراهق في قبو منزله- إنشاء تلك المواقع وإنتاج محتوى يصعب أحيانا التفرقة بينه وبين الأخبار الحقيقية.
كما أظهرت تجارب في ورقة بحثية جديدة صدرت في فبراير/شباط الماضي أن النماذج اللغوية بإمكانها توليد نصوص مقنعة للجمهور الأميركي بنفس درجة إقناع المحتوى الناتج من حملات الدعاية الخارجية السرية الحقيقية.
كما أن إستراتيجيات العمل المشترك بين الإنسان ونماذج الذكاء الاصطناعي مثل تعديل التوجيهات لروبوت المحادثة وتنسيق النتائج أسفرت عن مقالات مقنعة بقدر الدعاية الأصلية أو أكثر إقناعا منها.
وتشير شركة "أوبن إيه آي" المطورة لروبوت المحادثة "شات جي بي تي" إلى أنها تملك الآن أكثر من 100 مليون مستخدم نشط أسبوعيا، وتعمل أدواتها على تسهيل وسرعة إنتاج كم ضخم من المحتوى، كما يمكن استخدامها لإخفاء الأخطاء اللغوية وتوليد تفاعل وهمي.
الحكومات والجهات السياسية المؤثرة في مختلف دول العالم تستعين بالذكاء الاصطناعي لتوليد النصوص والصور والفيديو (شترستوك) حملات سرية للتأثيرفي نهاية مايو/أيار الماضي كشفت شركة "أوبن إيه آي" عن 5 عمليات سرية من روسيا والصين وإيران وإسرائيل استخدمت فيها تلك الدول تقنيات الذكاء الاصطناعي الخاصة بالشركة بغرض التأثير على الرأي العام العالمي، وذكرت الشركة أنها تمكنت من إيقافها، وفقا لما ذكرته صحيفة تايم.
وأوضحت الشركة في تقريرها الجديد كيف استخدمت هذه المجموعات -التي يرتبط بعضها بحملات دعائية معروفة- تقنيات الشركة في العديد من "الأنشطة المضللة"، وشملت تلك الأنشطة إنتاج تعليقات ومقالات وصور على وسائل التواصل الاجتماعي بلغات عدة، بالإضافة إلى ابتكار أسماء ونبذات تعريفية لحسابات وهمية، وتعديل الأكواد البرمجية، إلى جانب ترجمة النصوص وتدقيقها لغويا.
وركزت هذه العمليات على مجموعة من القضايا، منها الدفاع عن الحرب الدائرة على قطاع غزة والغزو الروسي لأوكرانيا، وتوجيه الانتقادات لمعارضي الحكومة الصينية، بالإضافة إلى نشر تعليقات بشأن السياسات في الهند وأوروبا والولايات المتحدة في إطار محاولاتها للتأثير على الرأي العام هناك.
وكشفت الأمثلة التي أوردها محللو "أوبن إيه آي" كيف تستخدم تلك الجهات تقنيات الذكاء الاصطناعي في نفس أنواع عمليات التأثير على الإنترنت التي تنفذها منذ عقد من الزمان، وتركز هذه الجهات على استخدام الحسابات والتعليقات والمقالات المزيفة بهدف التأثير على الرأي العام والتلاعب بالنتائج السياسية.
وكتب الباحث المسؤول عن فريق الاستخبارات والتحقيقات في "أوبن إيه آي" في التقرير "تكشف هذه التوجهات عن ساحة تهديدات تتسم بالتطور وليس الثورية، تستخدم تلك الجهات منصتنا لتحسين جودة محتواها والعمل بكفاءة أكبر".
وعلى سبيل المثال، أوضح تقرير الشركة بالتفصيل كيف استخدمت الشركة الإسرائيلية "ستويك" -وهي شركة للتسويق السياسي في تل أبيب- أدوات "أوبن إيه آي" لتوليد محتوى مؤيد لإسرائيل بشأن حرب الإبادة الدائرة على قطاع غزة.
واستهدفت تلك الحملة -التي كانت باسم "زيرو زينو"- الجمهور في الولايات المتحدة وكندا وإسرائيل، كما ذكرت شركة ميتا أنها حذفت 510 حسابات على فيسبوك و32 حسابا على إنستغرام ارتبطت بنفس الشركة الإسرائيلية.
وكانت مجموعة الحسابات المزيفة -التي تضمنت حسابات لأشخاص يتظاهرون بأنهم أميركيون من أصل أفريقي وطلاب في الولايات المتحدة وكندا- غالبا ترد على شخصيات بارزة أو مؤسسات إعلامية في منشورات تشيد بإسرائيل وتنتقد معاداة السامية في الجامعات الأميركية وتندد بتيارات "الإسلام الراديكالية".
وبحسب تقرير "أوبن إيه آي"، يبدو أن تلك الحملة قد فشلت في الوصول إلى أي تفاعل يذكر معها.
كما استخدمت إحدى حملات التأثير الروسية التي أوقفتها الشركة وأطلقت عليها اسم "قواعد سيئة" نماذج الذكاء الاصطناعي الخاصة بها لتصحيح الأكواد البرمجية لتشغيل روبوت على تطبيق تليغرام يتولى عملية نشر تعليقات سياسية قصيرة باللغتين الإنجليزية والروسية، وتقول الشركة إن العملية استهدفت أوكرانيا ومولدوفا والولايات المتحدة ودول البلطيق.
واستخدمت عملية روسية أخرى تعرف باسم "دوبلغنغر" وربطتها وزارة الخزانة الأميركية بالكرملين نماذج "أوبن إيه آي" لتوليد عناوين الأخبار وتحويل المقالات الصحفية إلى منشورات على فيسبوك، بالإضافة إلى كتابة التعليقات باللغات الإنجليزية والفرنسية والألمانية والإيطالية والبولندية.
كما استغلت شبكة صينية معروفة -وهي شبكة "سباموفلاغ" أدوات "أوبن إيه آي" للبحث في أنشطة وسائل التواصل الاجتماعي، وتوليد نصوص باللغات الصينية والإنجليزية واليابانية والكورية نشرت عبر منصات مختلفة، منها "إكس"، و"ميديم"، و"بلوغسبوت".
المصدر: الجزيرة
كلمات دلالية: حراك الجامعات حريات الذکاء الاصطناعی التولیدی تقنیات الذکاء الاصطناعی التواصل الاجتماعی على الإنترنت الرأی العام التأثیر على أوبن إیه آی فی الصین
إقرأ أيضاً:
الذكاء الاصطناعي مجرد وهم.. باحثون يكشفون السبب
تابع أحدث الأخبار عبر تطبيق
في تطور جديد يعيد تقييم فعالية الذكاء الاصطناعي، أعلن باحثون بإحدى شركات التكنولوجيا العملاقة أن الذكاء الاصطناعي، وخصوصًا النماذج اللغوية الكبيرة، يُظهر سلوكًا يُوحي بالذكاء ولكنه في الواقع مجرد وهم، هذه النماذج تُظهر قدرة على الاستجابة والتفاعل مع المستخدمين، إلا أنها تفتقر إلى التفكير المنطقي الحقيقي وفهم السياق العميق.
ووفقا لموقع techxplore أن الباحثون يقولون رغم التقدم الكبير الذي حققته تطبيقات الذكاء الاصطناعي، توضح دراسة باحثي شركة التكنولوجيا أن هذه التقنيات ما زالت بعيدة عن تحقيق ذكاء حقيقي، والنماذج الحالية تعتمد على تقنيات تحليل الأنماط بدلاً من الفهم العميق أو التفكير المنطقي، مما يجعلها أداة مفيدة ولكنها ليست بديلاً عن العقل البشري، ونُشر البحث عبر منصة arXiv preprint.
نقاط البحث الأساسية:
• أجريت الدراسة على نماذج لغوية كبيرة، مثل تلك المستخدمة في تطبيقات الذكاء الاصطناعي الشائعة.
• أظهرت النتائج أن هذه النماذج لا تفهم الأسئلة المطروحة فهمًا حقيقيًا، بل تعتمد على بنية الجمل والخوارزميات المكتسبة.
الفرضية الأساسية للدراسة:
افترض الباحثون أن الذكاء الحقيقي، سواء للكائنات الحية أو الآلات، يتطلب القدرة على:
1. التمييز بين المعلومات ذات الصلة وغير ذات الصلة: مثال ذلك، إذا سأل طفل والده عن عدد التفاح في حقيبة تحتوي على تفاح صغير الحجم، يمكن للعقل البشري تجاهل حجم التفاح كعامل غير ذي صلة بالإجابة.
2. إظهار التفكير المنطقي: القدرة على استخلاص الاستنتاجات الصحيحة بناءً على المعطيات المتاحة.
اختبار النماذج اللغوية الكبيرة:
• استخدم الباحثون مئات الأسئلة التي استُخدمت سابقًا لتقييم قدرة النماذج اللغوية.
• أضيفت معلومات غير ذات صلة إلى هذه الأسئلة لقياس قدرة الذكاء الاصطناعي على تجاهلها.
• النتيجة: أدى وجود معلومات زائدة إلى إرباك الذكاء الاصطناعي، مما نتج عنه إجابات خاطئة أو غير منطقية.
نتائج البحث:
1. عدم الفهم الحقيقي للسياق
النماذج اللغوية الكبيرة لا تفهم الأسئلة فهمًا عميقًا. بدلاً من ذلك، تستند إلى التعرف على الأنماط وتوليد إجابات تعتمد على البيانات السابقة.
2. إجابات مضللة
أعطت النماذج إجابات بدت صحيحة ظاهريًا، لكنها عند الفحص الدقيق تبين أنها خاطئة أو غير متسقة مع المنطق.
3. الوهم الذكي
النماذج تظهر وكأنها “تفكر” أو “تشعر”، لكنها في الواقع تعتمد على خوارزميات تعليم الآلة للتفاعل مع المستخدم، دون وجود ذكاء حقيقي أو إدراك.
أمثلة توضيحية من البحث:
• سؤال بسيط: عند طرح سؤال على الذكاء الاصطناعي يتضمن معلومات غير ضرورية، غالبًا ما يدمجها في إجابته بدلاً من تجاهلها.
• الشعور والإحساس: عند سؤال الذكاء الاصطناعي عن “شعوره” تجاه أمر معين، قد يقدم إجابات تُوحي بأنه يشعر، لكن هذه مجرد خدعة لغوية تعتمد على بيانات التدريب.
دلالات البحث:
• النتائج تعزز وجهة النظر التي ترى أن الذكاء الاصطناعي ليس “ذكاءً” حقيقيًا بالمعنى البشري، بل هو نموذج إحصائي معقد.
• تؤكد الدراسة أن الذكاء الاصطناعي الحالي غير قادر على التفكير المنطقي أو فهم السياق كما يفعل الإنسان.
التحديات المستقبلية:
• تحسين قدرة النماذج اللغوية على الفصل بين المعلومات ذات الصلة وغير ذات الصلة.
• تطوير نماذج ذكاء اصطناعي تفهم السياق بشكل أفضل وتُظهر منطقًا أقرب للإنسان.
• تقليل الاعتماد على الأنماط الإحصائية وزيادة التركيز على التفاعل الديناميكي.