الخليج الجديد:
2025-04-30@16:54:00 GMT

الذكاء الاصطناعي والإعلام

تاريخ النشر: 24th, September 2023 GMT

الذكاء الاصطناعي والإعلام

الذكاء الاصطناعي والإعلام

تحديات الذكاء الاصطناعي إعلاميا: ضمان الحياد والمعايير الأخلاقية، التضليل الإعـلامي، فبركة أحداث وتصريحات.

تجمع التقارير على أن في صدارة مخاطر الذكاء الاصطناعي في الإعـلام يأتي ما يسمى «التزييف العميق» الذي يقود إلى التضليل أو حتى الابتزاز والاحتيال!

أبرز إيجابيات الذكاء الاصطناعي تحويل النصوص إلى بيانات بمختلف الأشكال، والترجمة الآلية، والدردشة الآلية ردا على استفسارات الجمهور واكتشاف المحتوى المزيف.

مربط الفرس الإشكالات الأخلاقية التي يطرحها الذكاء الاصطناعي حرصا على النزاهة الأخلاقية للصحافة خاصة أن الموضوع متحرك ولا نعرف بالضبط أين يمكن أن يقود.

كيف يساعد الصحافيين في إعداد التقارير؟ ما هي الأدوار التي قد يحل محلها الذكاء الاصطناعي؟ ما هي بعض مجالات الذكاء الاصطناعي التي لم تستغلها المؤسسات الإخبارية بعد؟

* * *

تجرأتُ وسألتُ الذكاء الاصطناعي عن كيف هو هذا الذكاء مع الإعـلام. سألت (تشات جي بي تي) تحديدا عن ذلك فكان «منصفا» إلى حد لا بأس به.

عدّد الفوائد كالتالي: أتمتة المضامين، تحليل المعطيات، التحقق من الوقائع، السرعة في الجمع والتصنيف والتحليل، انتاج فيديوهات بسرعة واتقان كسبا للوقت والتكلفة، تحليل ميولات الجمهور المختلفة، المذيعون الروبوت.

أما التحديات فذكر منها: ضمان الحياد والمعايير الأخلاقية، التضليل الإعـلامي، فبركة أحداث وتصريحات. هنا مربط الفرس: الإشكالات الأخلاقية التي يطرحها الذكاء الاصطناعي حرصا على النزاهة الأخلاقية للصحافة لاسيما والموضوع متحرك ولا نعرف بالضبط إلى أين يمكن أن يقود.

هو متحرك فعلا ويطرح بقوة ضرورة التمييز بين استعمالاته المفيدة جدا في العلوم الصحيحة (وخاصة في الطب في تشخيص الأمراض وكتابة التقارير الطبية التي تجمع خلاصة كل الفحوصات…الخ) وبين استعمالاته الملتبسة في العلوم الإنسانية ومن بينها الصحافة.

هذا ما يجري الخوض فيه من فترة ففي نوفمبر/تشرين الثاني 2021 اعتمدت جميع الدول الأعضاء في «اليونسكو» اتفاقية تاريخية تحدد القيم والمبادئ الضامنة لتنمية صحية للذكاء الاصطناعي كإطار أخلاقي عام يمكن أن ينطبق على الإعـلام، رغم أنه مجال يحتاج لأحكام خاصة به.

كما أن مجلس حقوق الإنسان التابع للأمم المتحدة تبنى في 14 يوليو/تموز الماضي مشروعا دعا المجتمع الدولي إلى «اتخاذ تدابير وقائية ورقابية خاصة بالذكاء الاصطناعي».

وفي عام 2017 طرح منتدى عقده مركز «تاو» للصحافة الرقمية ومعهد «براون» للابتكار الإعـلامي في جامعة كولومبيا الأمريكية مجموعة تساؤلات حول الإعـلام والذكاء الاصطناعي من بينها:

كيف يساعد الصحافيين في إعداد التقارير؟ ما هي الأدوار التي قد يحل محلها الذكاء الاصطناعي؟ ما هي بعض مجالات الذكاء الاصطناعي التي لم تستغلها المؤسسات الإخبارية بعد؟

وكان الجواب هو وجود مؤشرات كثيرة تفيد بأنه سيعزز عمل الصحافيين لكنه لن يحل محلّه إذا ما استخدم بشكل صحيح، من ذلك استعماله مثلا في تفريغ المقابلات المسجلة أو غربلة تعليقات الجمهور التي تصل هذه المؤسسات.

«الذكاء الاصطناعي يبهر بقدر ما يثير القلق».. هكذا قال السفير البلجيكي في مجلس حقوق الإنسان مارك بيكستن، داعيا إلى ضرورة «الإشراف البشري» عليه وإلى «مقاربة حذرة» بشأنه، وهو ما قد يتم الخوض فيها أكثر بمناسبة أول قمة عالمية عن الذكاء الاصطناعي تحتضنها بريطانيا قبل نهاية هذا العام.

تشير كل المقالات والبحوث التي تناولت الذكاء الاصطناعي والإعـلام إلى أن من أبرز إيجابياته تحويل النصوص إلى بيانات بمختلف الأشكال، والترجمة الآلية، والدردشة الآلية للرد على استفسارات وتعليق الجمهور، ومعرفة أحوال الطقس وأسعار العملات والذهب في الصحافة الاقتصادية واكتشاف المحتوى المزيف.

أما التحديات فتتمثل بالخصوص في تقليل الاعتماد على بعض الوظائف في المجال الإعـلامي، وإن كان ذلك لا يعني إلغاءها بالضرورة، مع أهمية الإشارة إلى أن هذا الذكاء لا يمكن أن يحل محل الإنسان في إبداء التعاطف الذي يمكن أن يبديه الصحافي عند حدوث كوارث إنسانية رهيبة، كزلزال المغرب أو سيول ليبيا أو قضايا اللجوء وموت المئات في «قوارب الموت» في مياه المتوسط، أو قصص معاناة الفلسطينيين المختلفة مع الاحتلال الإسرائيلي وخاصة النساء والأطفال.

يشير الخبراء كذلك إلى أن الذكاء الاصطناعي يفتقر إلى السرد العاطفي لقصص إنسانية قد تكون مؤثرة للغاية أو حتى مأسوية، كما أنه يفتقد القدرة البشرية على التحليل ووضع السياق المناسب للقصص الإخبارية، كالتعاطف مع فلسطين مثلا عبر المظاهرات والتحركات التضامنية المختلفة، مع أن هؤلاء المتظاهرين قد يكونون بعيدين جدا عن الحدث، كما هو الشأن في مظاهرات تخرج في شوارع أندونيسيا مثلا تضامنا مع غزة.

ويضيف هؤلاء أن الذكاء الاصطناعي يفتقد أيضا القدرة على إصدار أحكام وقرارات أخلاقية في المواقف الحساسة، كما أنه عندما ينشئ محتوى خاطئا أو مضللا لا يتحمل مسؤولية أفعاله، وبالتأكيد لا يعتذر مثلما ما يفترض أن يقوم به الإنسان إن أخطأ، كواجب مهني وأخلاقي قبل كل شيء.

ولا يغيب عن هؤلاء الخبراء في مقالاتهم عن الموضوع الإشارة إلى أن المذيع الآلي مثلا سيكون عاجزا عن تعويض المذيع الإنسان حيث إنه لا يقرأ لغة جسد الضيف الذي يحاوره، كما أنه لا يمتلك بالضرورة الخلفية السياسية والثقافية التي تسمح له بطرح أسئلة من نوع خاص بعضها محرج أو صعب، كما أنه يفتقر إلى حس العاطفة والفكاهة والإبـداع، كما تقول صحيفة «واشنطن بوست» الأمريكية.

وعند تناول أكثر «المخاطر» التي يطرحها الذكاء الاصطناعي في الحقل الإعـلامي تجمع كل التقارير على أن في صدارتها جميعا يأتي ما يسمى «التزييف العميق» الذي قد يقود إلى التضليل أو حتى الابتزاز والاحتيال، إذ يكفي جمع ما بين خمس عشرة إلى ثلاثين ثانية من الصوت الأصلي لأي كان بنوعية جيدة حتى يمكن صناعة صوت مماثل لشخص ليقول أي كلام لم ينطق به صاحبه أصلا، كأن يصرخ رئيس الحكومة الإسرائيلية ضد الاحتلال!

*محمد كريشان كاتب وإعلامي تونسي

المصدر | القدس العربي

المصدر: الخليج الجديد

كلمات دلالية: الإعلام تحديات الصحافة الاحتلال الإسرائيلي الذكاء الاصطناعي التزييف العميق الذکاء الاصطناعی یمکن أن کما أنه إلى أن کما أن

إقرأ أيضاً:

مخاطر الذكاء الاصطناعي على التعليم والبحث العلمي

يحظى موضوع الذكاء الاصطناعي باهتمام واسع عبر العالم في المناقشات والمنتديات والمجادلات حول الموضوع. ولقد سبق أن تناولت هذا الموضوع في مقالين بهذه الجريدة الرصينة: أحدهما عن الذكاء الاصطناعي والإبداع، والآخر عن الذكاء الاصطناعي والترجمة. ولكن هذا الموضوع يحتمل المزيد من التأملات دائمًا، إذ إن له أبعادًا كثيرةً لا حصر لها؛ ولذلك فإنني أريد في هذا المقال التنويه إلى تأثير الذكاء الاصطناعي على العملية التعليمية والبحث العلمي.

وقد يبدو أن استخدام كلمة «تأثير» أفضل من استخدام كلمة «مخاطر» الواردة في عنوان هذا المقال؛ لأن هذه الكلمة الأخيرة قد لا تبدو محايدة، وإنما تنطوي على حكم مسبق يتخذ موقفًا متحيزًا ضد تقنيات الذكاء الاصطناعي. وهذا تفسير غير صحيح؛ لأن كلمة «مخاطر» تعني أن هناك طريقًا نسير عليه -أو ينبغي أن نسير فيه- ولكنه يكون محفوفًا بالمخاطر التي ينبغي أن ندركها لكي يمكن اجتنابها. فلا مراء في أن الذكاء الاصطناعي يمثل ثورة كبرى في المعرفة البشرية.

هذه الثورة المعرفية تتمثل في القدرة الهائلة للآلة على توفير بيانات ضخمة في أي مجال معرفي، بل يمكن لبرامج هذه الآلة أن تؤلف نصوصًا أو موضوعات بحثية أو تصمم ابتكارات ومخترعات باستخدام هذه البيانات.

ولقد أثمرت هذه الثورة المعرفية بوجه خاص في مجال تطبيقات العلوم الدقيقة، وعلى رأسها الرياضيات البحتة التي تمتد جذورها في النهاية في المنطق الرياضي، كما لاحظ ذلك برتراند رسل بشكل مدهش في مرحلة مبكرة للغاية في كتابه أصول الرياضيات!

ولا شك أيضًا في أن الذكاء الاصطناعي له استخدامات مثمرة في مجال العملية التعليمية، إذ إنه يسهِّل على المعلم والطالب معًا بلوغ المعلومات المهمة والحديثة في مجال الدراسة، ويقدِّم المعلومات للطلبة بطريقة شيقة ويشجعهم على البحث والاستكشاف بأنفسهم.

وهنا على وجه التحديد مكمن المشكلة، فعندما نقول: «إن الذكاء الاصطناعي يشجع الطلبة على البحث والاستكشاف بأنفسهم»، فإننا ينبغي أن نأخذ هذه العبارة بمعناها الدقيق، وهو أن الذكاء الاصطناعي هو ذكاء الآلة، والآلة دائمًا هي أداة للاستخدام، وبالتالي فإنها لا يمكن أن تكون بديلًا لدور المستخدِم الذي يجب أن يقوم بنفسه بالبحث والاستكشاف. وهذا يعني أن سوء استخدام الذكاء الاصطناعي والتعويل عليه في عملية التعلم، سيؤدي إلى القضاء على روح المبادرة والاكتشاف، وسيحول دون تعلم مهارات التفكير الناقد critical thinking وتنميتها من خلال عملية التفاعل المباشر بين الطلبة والمعلم. وتلك كلها مخاطر حقيقية على التعليم.

ولا تقل عن ذلك مخاطر الذكاء الاصطناعي في البحث العلمي الذي يصبح تكريسًا لسوء استخدام هذا الذكاء في مراحل التعليم المختلفة. بل إن المخاطر هنا تصبح أشد وأكثر ضررًا؛ لأنها تتعلق بتكوين باحثين وأساتذة يُرَاد لهم أو يُرجى منهم أن يكونوا علماء حقيقيين في مجالاتهم البحثية المتنوعة. ولعل أشد هذه المخاطر هو شيوع السرقات العلمية من خلال برامج الذكاء الاصطناعي التي تقوم بعملية التأليف من خلال كتابات ودراسات وبحوث منشورة؛ وهو ما قد يشجع الباحث على استخدام المادة المُقدّمة له باعتبارها من تأليفه ودون ذكر للمصادر الأصلية التي استُمدت منها هذه المادة.

حقًّا أن الذكاء الاصطناعي نفسه قد ابتكر برامج لاكتشاف السرقات العلمية (لعل أشهرها برنامج Turnitin)؛ ولكن هذا لا يمنع الباحثين الذين يفتقرون إلى أخلاقيات البحث العلمي من التحايل على مثل هذه البرامج من خلال التمويه، وذلك بتطعيم البحث بمادة موثقة من مصادرها، بحيث يبدو البحث مقبولًا في الحد الأدنى من نسبة الاقتباسات المشروعة! وهذا أمر لا ينتمي إلى البحث العلمي ولا إلى الإبداع والابتكار.

وبصرف النظر عن مسألة السرقات العلمية، فإن الاعتماد على الذكاء الاصطناعي في البحث العلمي له مخاطر أخرى تتمثل في أن المادة المقتبَسة كثيرًا ما تكون مشوهة أو غير دقيقة، وهذا يتبدى -على سبيل المثال- في حالة النصوص المقتبسة المترجَمة التي تقع في أخطاء فادحة وتقدم نصًا مشوهًا لا يفهم مقاصد المؤلف الأصلي، وهذا ما فصلت القول فيه في مقال سابق. وفضلًا عن ذلك، فإن برامج الذكاء الاصطناعي لا تخلو من التحيز (بما في ذلك التحيز السياسي)؛ ببساطة لأنها مبرمَجة من خلال البشر الذين لا يخلون من التحيز في معتقداتهم، وهذا ما يُعرف باسم «الخوارزميات المتحيزة» biased algorithms.

ما يُستفاد من هذا كله هو أن الذكاء الاصطناعي ينبغي الاستعانة به في إطار الوعي بمخاطره؛ ومن ثم بما ينبغي اجتنابه، ولعل هذا ما يمكن تسميته «بأخلاقيات الذكاء الاصطناعي»، وهي أخلاقيات ينبغي أن تَحكم برامج هذا الذكاء مثلما تَحكم المستخدم نفسه.

مقالات مشابهة

  • “كيف يعيد الذكاء الاصطناعي تشكيل السلطة الرابعة؟”.. ورشة تدريبية بين نقابة الصحفيين والمرصد المصري للصحافة والإعلام
  • خبراء يحذِّرون: الذكاء الاصطناعي يجعل البشر أغبياء
  • مخاطر الذكاء الاصطناعي على التعليم والبحث العلمي
  • كِتابة جِنيّ المصباح تجارب روائية ولَّدها الذكاء الاصطناعي
  • كتَّاب عرب: لن نترك الذكاء الاصطناعي يأخذ مكاننا!
  • وهبي: لا يمكن توفير طبيب شرعي لكل إقليم بسبب ضعف أجور التشريح التي لا تتجاوز 100 درهم
  • الاعيسر: نأمل من شعبنا الكريم تفهُّم الحيثيات التي أدت إلى تأخر البيان
  • الذكاء الاصطناعي والرقمنة في العمل
  • هذه أبرز وظائف المستقبل التي تنبأ بها الذكاء الاصطناعي
  • كيف خسرت آبل عرش الذكاء الاصطناعي لصالح ميتا؟