بقلم إبراهيم راضي الصبح

مع التقدم السريع في تقنيات الذكاء الاصطناعي وتبنيها بشكل متزايد في مجال الإعلام، أصبح من الضروري التطرق إلى الجوانب الأخلاقية المتعلقة باستخدام هذه التكنولوجيا، وبينما يوفر الذكاء الاصطناعي فرصاً غير مسبوقة للابتكار في إنتاج المحتوى الإعلامي وتقديمه، فإنه يثير أيضاً تساؤلات مهمة حول المسؤولية والشفافية، وكيف يمكننا الموازنة بين فوائد الذكاء الاصطناعي في الإعلام والالتزام بالأخلاقيات الصحفية؟

من خلال تطبيقات الذكاء الاصطناعي، تمكنت المؤسسات الإعلامية من تحسين كفاءتها وتقديم تجارب جديدة للمستخدمين، فعلى سبيل المثال، تستخدم تقنيات تعلم الآلة لتحليل كميات ضخمة من البيانات لتقديم أخبار مخصصة تلائم اهتمامات كل فرد، بالإضافة إلى ذلك، تُستخدم أدوات الذكاء الاصطناعي لتحليل المشاعر على وسائل التواصل الاجتماعي، وتقديم رؤى حول كيفية تفاعل الجمهور مع المحتوى.

علاوة على ذلك، ظهرت تقنية “الروبوت الصحفي” التي تعتمد على الذكاء الاصطناعي لإنتاج أخبار بشكل آلي، خاصة في المجالات التي تتطلب معالجة كمية هائلة من البيانات مثل الأخبار المالية والرياضية، وجميع هذه التطورات تتيح للإعلاميين التركيز على العمل الاستقصائي والإبداعي، بينما يتولى الذكاء الاصطناعي الجوانب الروتينية.

مقالات ذات صلة حول ما حدث في لبنان: ثلاث نقاط / فاخر الدعاس 2024/09/19

ورغم الفوائد العديدة، إلا أن استخدام الذكاء الاصطناعي في الإعلام يطرح تحديات أخلاقية يجب مراعاتها:

أولها الشفافية والمصداقية، إذ يعتمد الجمهور على وسائل الإعلام للحصول على معلومات دقيقة وموثوقة، وعندما تُستخدم خوارزميات الذكاء الاصطناعي في إنتاج الأخبار، يصبح من الضروري توضيح كيفية عمل هذه الخوارزميات ومدى تأثيرها على اختيار وتقديم الأخبار، والشفافية في هذا السياق تعني إعلام الجمهور بأن الذكاء الاصطناعي قد استخدم في إعداد المحتوى.

ثانياً، التحيز في الخوارزميات، إذ تُصمم خوارزميات الذكاء الاصطناعي بناءً على البيانات التي تُدرَّب عليها، فإذا كانت هذه البيانات غير متوازنة أو متحيزة، فقد يؤدي ذلك إلى نتائج غير موضوعية أو متحيزة، على سبيل المثال، يمكن لخوارزمية توصية الأخبار أن تعزز التحيز التأكيدي من خلال عرض محتوى يوافق اهتمامات المستخدم دون تقديم وجهات نظر مختلفة.

ثالثاً، الخصوصية، حيث تعتمد العديد من تطبيقات الذكاء الاصطناعي في الإعلام على جمع وتحليل بيانات المستخدمين. لذلك، يتعين على المؤسسات الإعلامية ضمان حماية خصوصية الجمهور والالتزام بالقوانين المتعلقة بحماية البيانات.

ورابعاً، تأتي المساءلة، وذلك عندما يرتكب الذكاء الاصطناعي خطأً في تقديم الأخبار أو يسبب نشر معلومات مضللة، يُطرح سؤال حول من يتحمل المسؤولية، هنا يجب تحديد من هو المسؤول عن القرارات التي تتخذها الأنظمة الذكية.

ولتحقيق التوازن بين الابتكار والمسؤولية في استخدام الذكاء الاصطناعي في الإعلام، يجب اتباع نهج متكامل يجمع بين التقنيات المتقدمة والأخلاقيات الصحفية:

أولها تعزيز الشفافية، فعلى المؤسسات الإعلامية أن تكون واضحة بشأن استخدام الذكاء الاصطناعي في إنتاج المحتوى. يمكن ذلك من خلال الإفصاح عن دور الخوارزميات في تقديم الأخبار وتوضيح آلية عملها للجمهور.

ثانياً، ضمان جودة البيانات، وذلك لتقليل التحيز في الخوارزميات، إذ يجب التأكد من أن البيانات المستخدمة في تدريب نماذج الذكاء الاصطناعي شاملة ومتنوعة، ويجب أن تعكس البيانات مختلف وجهات النظر والمعلومات.

ثالثاً، تعزيز حماية الخصوصية، إذ يجب أن تلتزم المؤسسات الإعلامية بأفضل الممارسات في حماية بيانات المستخدمين. يجب جمع البيانات بطرق أخلاقية وشفافة، وضمان عدم استخدامها لأغراض غير مشروعة أو غير معلنة.

ورابعاً، تطوير سياسات المساءلة، ووضع سياسات واضحة تحدد من يتحمل المسؤولية عند حدوث أخطاء ناجمة عن استخدام الذكاء الاصطناعي، ليكون هناك نظام للرقابة والمراجعة الدورية للخوارزميات لضمان دقتها ونزاهتها.

وحيث يمثل الذكاء الاصطناعي فرصة مهمة لتعزيز الابتكار في مجال الإعلام، ولكنه يأتي مع تحديات أخلاقية تتطلب معالجة واعية ومسؤولة، ومن خلال تبني نهج يعتمد على الشفافية، والجودة، وحماية الخصوصية، والمساءلة، يمكن للإعلاميين الاستفادة من إمكانيات الذكاء الاصطناعي مع الحفاظ على القيم الأخلاقية التي تُشكل جوهر العمل الإعلامي.

المصدر: سواليف

كلمات دلالية: الذکاء الاصطناعی فی الإعلام استخدام الذکاء الاصطناعی المؤسسات الإعلامیة من خلال التی ت

إقرأ أيضاً:

ورشة عمل بطب قصر العيني حول التقييم الفعّال في عصر الذكاء الاصطناعي

في إطار جهود كلية طب قصر العيني الرامية إلى تحديث وتطوير مناهجها الدراسية بما يتماشى مع التطورات العالمية المتسارعة، خاصة في مجال الذكاء الاصطناعي، نُظّمت ورشة عمل بعنوان "ست خطوات لتقييم الطلاب الفعّال في عصر الذكاء الاصطناعي واستخدامه في إعداد الامتحانات"، برعاية الأستاذ الدكتور حسام صلاح، وتنظيم وإشراف الأستاذة الدكتورة حنان مبارك، وكيلة الكلية لشؤون التعليم والطلاب، والأستاذة الدكتورة نادية بدراوي، أستاذ طب الأطفال ورئيس شعبة التعليم الطبي للمهن الصحية بالجمعية الطبية المصرية.

أقيمت الورشة في قاعة كبار الزوار (VIP) بالطابق السادس في مبنى الـLRC، وقدّمها الأستاذ الدكتور محمد حسنين، أستاذ الكيمياء الحيوية وزميل أول لدى مؤسسة AdvanceHE البريطانية، ورئيس وحدة التقييم ولجنة الذكاء الاصطناعي بكلية الصيدلة بجامعة الملك عبد العزيز، ومستشار نائب رئيس الجامعة للشؤون التعليمية، ومستشار بمركز تطوير التعليم والتعلم، كما أنه حاصل على شهادة متقدمة في علوم البيانات والتعلم الآلي من معهد ماساتشوستس للتكنولوجيا (MIT) بالولايات المتحدة الأمريكية.

استهدفت الورشة أعضاء وحدة ضمان الجودة، ومركز التعليم الطبي، ولجنة القياس والتقويم، ورؤساء الأقسام، بالإضافة إلى معدّي ومنسقي الامتحانات بالأقسام المختلفة، حيث ركزت على تطوير ممارسات التقييم في التعليم الطبي، عبر دمج أدوات الذكاء الاصطناعي ضمن بيئة التعليم الجامعي بما يحقق جودة أعلى في النتائج ومخرجات التعلم.

تميزت الورشة بطابع تفاعلي مثمر، وناقش المشاركون خلالها مع المحاضر كيفية توظيف الذكاء الاصطناعي في تحديث وتوصيف المقررات الدراسية، وبناء بنوك أسئلة دقيقة، وتصميم امتحانات تكوينية ونهائية تراكمية، إلى جانب استخدام التحليل الإحصائي لنتائج الطلاب لتحقيق أهداف التحسين المستمر وضمان الجودة الشاملة.

وتناولت الورشة منهجية واضحة مكونة من ست خطوات، تهدف إلى وضع إرشادات عملية لإنشاء نماذج GPT مخصصة تسهم في تعزيز التفاعل التعليمي، حيث تُمكّن الطلاب من طرح الأسئلة، والحصول على تغذية راجعة فعّالة، مما يعمّق من فهمهم للمحتوى الدراسي، ويُسهم في تطوير مهاراتهم الأكاديمية والمهنية بشكل ملحوظ.

كما ناقش المشاركون نماذج واقعية لاستخدام أدوات الذكاء الاصطناعي لدعم أعضاء هيئة التدريس في تطوير المقررات التعليمية، وإدارة التقييمات بكفاءة أكبر، وتعزيز ممارسات الجودة والاعتماد المؤسسي، إلى جانب دور هذه الأدوات في دعم الباحثين في إعداد الأبحاث ومراجعتها بناءً على معايير علمية دقيقة. ويُعد دمج الذكاء الاصطناعي في التعليم الطبي خطوة استراتيجية تعزز تطور المنظومة التعليمية والبحثية في آن واحد.

وأكدت الورشة أن استخدام نماذج الذكاء الاصطناعي مثل ChatGPT في التعليم الطبي يُمثل تطورًا كبيرًا في تقنيات التعليم، ويُسهم في تحسين بيئة التعلم، وتعزيز النتائج التعليمية، وتقديم تجارب تعلم مخصصة لكل طالب، بما يحقق التميز الأكاديمي والبحثي. ومع ذلك، شددت المناقشات على أهمية التعامل الواعي مع هذا التقدم، ومواجهة التحديات التكنولوجية والتربوية والأخلاقية المرتبطة به من خلال أطر تنظيمية مدروسة.

وتُعد هذه الورشة خطوة مهمة ضمن سلسلة جهود تطويرية تقودها كلية طب قصر العيني نحو بناء منظومة تعليم طبي مبتكرة، تُسهم في تعزيز القدرة التنافسية للكلية، وتتماشى مع التوجهات العالمية الحديثة، بما يُحقق أهداف التميز والتطوير على المستويين المحلي والدولي.

مقالات مشابهة

  • إلى كتبة الذكاء الاصطناعي: ارحمونا!
  • الذكاء الاصطناعي يزحف على المكاتب.. نصف الوظائف في خطر!
  • هلاوس الذكاء الاصطناعي.. خبير يحذر من معلومات مضللة مغلفة بالدقة
  • الذكاء الاصطناعي وصناعة القرار السياسي: هل حان وقت التغيير؟
  • «كهرباء دبي» تعزّز كفاءة العمليات باستخدام الذكاء الاصطناعي
  • الإعلام في ملعب الرياضة
  • ورشة عمل بطب قصر العيني حول التقييم الفعّال في عصر الذكاء الاصطناعي
  • تعرف على خطة غوغل التي استغرقت 25 عاما للوصول إلى الذكاء الاصطناعي
  • الذكاء الاصطناعي يكتب ملاحظات المجتمع في منصة إكس
  • العلماء قلقون: الذكاء الاصطناعي يتلاعب ويكذب