كيف ستواجه TikToK المعلومات الخاطئة عن الانتخابات الأمريكية
تاريخ النشر: 19th, January 2024 GMT
شاركت TikTok المزيد حول خططها لمحاربة المعلومات الخاطئة قبل الانتخابات الرئاسية لعام 2024. وكما هو الحال مع العديد من نظيراتها في وسائل التواصل الاجتماعي، فإن جهود الشركة لعام 2024 سوف تشبه إلى حد كبير ما فعلته في الماضي.
للبدء، تقدم الشركة دليل الانتخابات داخل التطبيق، والذي سيوجه المستخدمين إلى معلومات حول التصويت، بما في ذلك كيفية التسجيل وكيفية التصويت عبر البريد.
لم يتغير نهج TikTok تجاه المعلومات المضللة في عام 2024 كثيرًا منذ عام 2022. وستستمر الشركة في حظر الإعلانات السياسية، بما في ذلك تلك التي تأتي عبر المحتوى الذي يحمل علامة تجارية لمنشئي المحتوى. وستواصل أيضًا العمل مع منظمات التحقق من الحقائق، والتي تساعد في تحديد ما إذا كان المحتوى مؤهلاً للتوصيات أو يضمن تصنيف "لم يتم التحقق منه". وتقول الشركة إنها ستقوم "بتوسيع موارد المعرفة الإعلامية لهذه العلامات" في وقت لاحق من هذا العام، مما قد يجعل الإشعارات أكثر فائدة للمستخدمين الذين يواجهونها، على الرغم من أنه من غير الواضح كيف سيبدو ذلك حتى الآن.
تأتي خطة TikTok لعام 2024 في الوقت الذي يحذر فيه الخبراء من أن ظهور الذكاء الاصطناعي التوليدي يمكن أن يغذي موجة جديدة من المعلومات المضللة عن الانتخابات الفيروسية. من جانبها، تعترف TikTok بأن الذكاء الاصطناعي الإبداعي قد خلق "تحديات جديدة" لصناعة وسائل التواصل الاجتماعي، لكنها لم تصل إلى حد تقديم أي سياسات جديدة لمعالجتها. وبدلاً من ذلك، تقول الشركة إنها ستواصل تطبيق قواعدها الحالية، التي تحظر المحتوى "المضلل" الناتج عن الذكاء الاصطناعي وتطلب من منشئي المحتوى الكشف عن متى تستخدم مقاطع الفيديو محتوى "واقعيًا" يتم إنشاؤه بواسطة الذكاء الاصطناعي.
وكتبت الشركة في منشور بالمدونة: "مع تطور التكنولوجيا في عام 2024، سنواصل تحسين سياساتنا واكتشافنا أثناء الشراكة مع خبراء في محتوى الثقافة الإعلامية الذي يساعد مجتمعنا على التنقل في الذكاء الاصطناعي بطريقة مسؤولة".
عندما يتعلق الأمر بالمعلومات المضللة والجهود المنسقة للتلاعب بمنصتها، تُجري TikTok تغييرًا ملحوظًا. وتقول الشركة إنها تخطط لإصدار تقارير مفصلة عن حملات التأثير السرية قبل مسابقة 2024. وتكشف بالفعل عن بعض المعلومات حول حملات التأثير التي تكشفها في تقارير الشفافية ربع السنوية، لكن الإفصاحات عادةً ما تكون قصيرة في التفاصيل. ومن المفترض أن يتغير ذلك هذا العام، وفقًا لـ TikTok، التي تقول إنها ستبدأ في إصدار "تقارير مخصصة لعمليات التأثير السرية" في وقت لاحق من هذا العام.
المصدر: بوابة الوفد
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
هل يؤثر شات جي بي تي على نتيجة الانتخابات الأميركية 2024؟
تمكن "شات جي بي تي" ومختلف روبوتات الدردشة المعتمدة على نماذج الذكاء الاصطناعي اللغوية من التغلغل في كافة جوانب الحياة اليومية لمختلف المستخدمين ذوي الخلفيات المتنوعة، وذلك بشكل أسرع من التقنيات الحديثة الأخرى، إذ يملك "شات جي بي تي" تحديدا أسرع معدل نمو في الاستخدام مقارنةً مع "فيسبوك" و"إنستغرام" كمثال.
ورغم الفوائد الجمة التي تقدمها نماذج الذكاء الاصطناعي وفي مقدمتها "شات جي بي تي"، إلا أنها تحمل بداخلها مخاطر تهدد السلام والأمن العام للدول، إما عبر نشر الشائعات الخاطئة من داخل النموذج ذاته، أو استخدامه لتوليد محتوى يروج للشائعات والمعلومات الخاطئة، ومع اقتراب يوم الانتخابات الرئاسية الأميركية 2024، تزداد المخاوف من الاستخدامات السيئة لهذه التقنية.
ولكن هل تملك هذه المخاوف أي أساس من الصحة؟ أم أنها مجرد لحظات تهويل من أشخاص غير خبراء أو مطلعين على التقنية ومدى قدرتها في التأثير على الآراء العامة؟ أم أنها فعلا تمثل خطرا حقيقيا على الانتخابات الرئاسية الأميركية أو أي عملية انتخابية في أي مكان حول العالم؟
تأثير غير مباشرعند الحديث عن التأثير الذي يمكن أن يمتلكه "شات جي بي تي" ونماذج الدردشة الأخرى يتبادر إلى الذهن محاولة روبوت الدردشة التأثير المباشر في آراء الناخبين، ولكن الحقيقة أن هذا التأثير ليس مباشرا وقد لا يأتي من الروبوت بشكل مباشر.
وذلك بفضل قدرة "شات جي بي تي" وروبوتات الدردشة المماثلة على توليد محتوى سواءً كان نصيا أو مقاطع فيديو أو مقاطع صوتية تحاكي طريقة وأسلوب الحديث المحلي المستخدم في مختلف الدول حول العالم، وهو ما يجعل هذا المحتوى أقرب إلى المحتوى البشري ويمكن تصديقه.
وتعد هذه القدرة هي الخطر الأكبر الذي تمثله روبوتات الدردشة على المستخدمين وآرائهم، وبفضلها اختفت الحاجة إلى وجود أشخاص محليين راغبين ومستعدين لتوليد المحتوى المضلل، وفضلا عن جودة المحتوى الناتج من روبوتات الدردشة هذه، فإن سرعة توليد المحتوى ووفرته تجعله مثاليا للاستخدام مع مختلف المنصات عبر الإنترنت، سواءً كانت محركات بحث مثل "غوغل" أو منصات تواصل اجتماعي على غرار "فيسبوك" و"إنستغرام".
ولم يغب هذا الاستخدام عن الجهات الخارجية التي وجدت في قدرات "شات جي بي تي" وسيلةً لتوليد محتوى مضلل مُقنع وأقرب إلى المحتوى البشري، لذا قامت مجموعة إيرانية باستخدامه ضمن عملية أطلقت عليها اسم "عاصفة-2035" (Storm-2035) لتوليد محتوى مضلل يستهدف الجاليات اللاتينية في الولايات المتحدة طمعا في التأثير على أصواتهم في الانتخابات.
وأشارت "أوبن إيه آي" إلى هذه العملية في بيان رسمي عبر موقعها، ومن خلال هذا البيان كشفت عن آلية استخدام "شات جي بي تي" في العملية، إذ كان الروبوت يولد المحتوى المضلل بناءً على المعلومات المضللة التي يتم تزويده بها، ثم يتم تخصيص المحتوى وتحسينه عبر الروبوت بشكل يجعله يقترب من المحتوى البشري قبل أن يتم نشره عبر منصات التواصل الاجتماعي المختلفة.
ووفق تقرير الشركة، فإن الحسابات التي كانت مشتركة في هذه العملية تم حظر وصولها إلى "شات جي بي تي" فضلا عن أن المحتوى المولد عبره لم يحظَ بالانتشار الذي يجعله يهدد أمن وسلامة المستخدمين بشكل مباشر، لذا فإن آثارها لم تكن واسعة بحسب وصف الشركة، ولكن بالطبع لا يمكن التأكد من أن جميع الحسابات المشاركة في هذه العملية أو التي نشرت المحتوى تم حظرها، وذلك لأن الحسابات التي ستتمكن من الاختفاء عن أعين الرقابة ستكون قادرة على توليد محتوى ذي جودة أكبر وقابلية انتشار أعلى.
إن كان اختراق "شات جي بي تي" أو "جيميناي" أمرا صعبا، فإن الجهات الخارجية أو الداخلية قد تسعى إلى بناء روبوت دردشة من الصفر والترويج له قبل الانتخابات (شترستوك) حقبة تخصيص المحتوى المضللفي العادة، يتم توليد المحتوى المضلل ليخاطب أكبر عدد ممكن من الأفراد فضلا عن صعوبة تخصيص المحتوى ليناسب الثقافة المحلية من قبل أشخاص خارج هذه الثقافة، ولكن "شات جي بي تي" يحل هذه المشكلة بشكل بسيط وسريع للغاية.
يستطيع النموذج تحويل المعلومات المضللة المقدمة إليه لتصبح مناسبة لفئات معينة ومختلفة من الشعب المستهدف، وربما كانت عملية "عاصفة-2035" مثالا حيا على ذلك، إذ تمكن النموذج من تخصيص المعلومات المضللة لتناسب الجالية اللاتينية أو ذات الأصول اللاتينية.
ويمكن توسيع رقعة الاستهداف الخاصة بالمحتوى المضلل أو تضييقها بحسب ما تقتضي الحاجة لهذا المحتوى، فيمكن عبر "شات جي بي تي" صناعة محتوى يستهدف السيدات اللاتي يبلغ من العمر 50 عاما أو أكبر ويعشن في ولايات جنوب أميركا ولا يعملن ويحببن مشاهدة الأعمال الدرامية التي تتحدث عن المؤامرات، وفي هذه الحال يكون صدى المحتوى المولد أكبر من المحتوى العشوائي.
أداة جمع بيانات وتخصيص إعلانات أكثر قوةفي مارس/آذار 2018 ظهرت فضيحة شركة "كامبريدج أناليتيكا" (Cambridge Analytica) التي اعتمدت عليها حملة الرئيس الأميركي آنذاك دونالد ترامب من أجل توجيه الإعلانات وتخصيصها بشكل يجعلها أكثر تناسبا لفئة معينة من الشعب بناء على تفضيلاتهم وبياناتهم على منصات التواصل الاجتماعي.
وبينما كانت المشكلة في تلك الفضيحة هي آلية وصول الشركة إلى البيانات من شركة "ميتا" وغيرها، إلا أن وجود البيانات في حد ذاته لم يكن جزءا من الفضيحة، وبفضل قدرات الذكاء الاصطناعي على قراءة وفحص العديد من الصفحات والنصوص والحسابات عبر الإنترنت، فإنه يصبح قادرا على تقديم مثل هذه البيانات بشكل سريع وفوري.
وتتسع رقعة الخطر أيضا حين استخدام نماذج الذكاء الاصطناعي للتنبؤ بنتائج الانتخابات، وهو الأمر الذي أشارت إليه ورقة بحثية نشرت في "جامعة كورنيل" (Cornell University) وشارك فيها خبراء من "غوغل" ومعهد "إم آي تي" وجامعة "هارفارد".
وبحسب ما جاء في البحث، فإن هذه القدرة التي يتمتع بها الذكاء الاصطناعي تتيح للشركات والجهات الخارجية أو الداخلية توقع نتيجة الانتخابات بشكل أقرب للصواب ثم بناء إستراتيجيات وتصميم حملات تهدف للتأثير في هذه النتيجة بناءً على البيانات الواردة من الذكاء الاصطناعي، ليصبح بذلك الذكاء الاصطناعي مؤثرا في نتائج الانتخابات بشكل غير مباشر.
بناء روبوتات دردشة مضللةرغم خطورة الاحتمالات السابقة، إلا أنها تناقش فقط استخدام نماذج الذكاء الاصطناعي لتوليد محتوى مضلل قادر على التأثير في الانتخابات، ولكن هناك آلية أكثر خطورة تجعل تهديد وخطر الذكاء الاصطناعي أكثر شراسة.
وتعتمد هذه الآلية على اختراق روبوتات الدردشة الموجودة في الوقت الحالي بمختلف أنواعها، ثم تزويدها ببيانات خاطئة تماما ليقوم الروبوت لاحقا بنشر هذه البيانات بين مستخدميه والإجابة عن الأسئلة التي يمتلكونها.
وإن كان اختراق "شات جي بي تي" أو "جيميناي" أمرا صعبا، فإن الجهات الخارجية أو الداخلية قد تسعى إلى بناء روبوت دردشة من الصفر والترويج له قبل الانتخابات بوقت كافٍ ليستطيع نشر المعلومات والبيانات المضللة عن الحملات الانتخابية بين المستخدمين.
وبينما يعد هذا السيناريو مستبعدا في الوقت الحالي، إلا أن التخطيط المناسب والاستعداد قبل الانتخابات بوقت كاف يجعله أقرب إلى التصديق، وهو سيناريو أكثر خطورة من مجرد توليد المحتوى المضلل عبر روبوتات الدردشة ونشره في منصات التواصل الاجتماعي.