أخبارنا:
2024-09-19@23:25:19 GMT

الذكاء الاصطناعي تنقصه نعمة النسيان.. فما تبعات ذلك؟

تاريخ النشر: 13th, December 2023 GMT

الذكاء الاصطناعي تنقصه نعمة النسيان.. فما تبعات ذلك؟

عندما اكتشف براين هود أن "تشات جي بي تي" نسب إليه ماضياً إجرامياً، وجد هذا السياسي الأسترالي نفسه في مواجهة معضلة ينكبّ المهندسون جاهدين على محاولة حلّها، وتتمثل في كيفية تعليم الذكاء محوَ الأخطاء.

فالخيار القانوني المتمثل في تلويح براين هود في أبريل/نيسان الفائت برفع دعوى تشهير على شركة "أوبن إيه آي" (منشئة "تشات جبي بي تي") لا يبدو حلاً مناسباً.

كذلك لا يكمن الحلّ في إعادة ضبط معايير الذكاء الاصطناعي بالكامل، إذ إن تدريب النموذج مجدداً يستغرق وطناً طويلاً وهو مكلف جداً.

ويرى المختصون أن مسألة "إلغاء التعلّم" أي جعل الذكاء الاصطناعي ينسى بعض ما تلقّنه، ستكون بالغة الأهمية في السنوات المقبلة، وخصوصاً في ضوء التشريعات الأوروبية لحماية البيانات.

وتؤكد أستاذة علوم المعلومات في جامعة "آر إم آي تي" في ملبورن ليسا غيفن أن "القدرة على محو البيانات الموجودة في قواعد بيانات التعلّم هي موضوع مهم جداً". لكنها ترى أن جهداً كبيراً لا يزال مطلوباً في هذا المجال نظراً إلى النقص الحالي في المعرفة في شأن كيفية عمل الذكاء الاصطناعي.

ففي ظل الكم الهائل من البيانات التي يُدرَّب الذكاء الاصطناعي عليها، يسعى المهندسون إلى حلول تتيح تحديداً أكبر، بحيث تُزال المعلومات الخاطئة من مجال معرفة أنظمة الذكاء الاصطناعي بغية وقف انتشارها.

خواريزمية تعالج المشكلة؟

 واكتسب الموضوع زخما خلال السنوات الثلاث أو الأربع الأخيرة، على ما يوضح لوكالة فرانس برس الباحث الخبير في هذا المجال، مقداد كرمانجي، من جامعة وارويك البريطانية. وعملت "غوغل ديب مايند" المتخصصة في الذكاء الاصطناعي على معالجة هذه المشكلة، إذ نشر خبراء من الشركة الأميركية الشهر المنصرم مع كورمانجي، خوارزمية مخصصة لمحو البيانات في نماذج لغوية مهمة، كنموذجَي "تشات جي بي تي" و"بارد" (من "غوغل").

وانكبّ أكثر من ألف خبير شاركوا في مسابقة أطلقتها الشركة الأميركية على العمل ما بين يوليو/تموز وسبتمبر/أيلول لتحسين أساليب "إلغاء تعلّم" الذكاء الاصطناعي. وتتمثل الطريقة المستخدمة المشابهة لما توصلت إليه أبحاث أخرى في هذا المجال، في إدخال خوارزمية تأمر الذكاء الاصطناعي بعدم أخذ بعض المعلومات المكتسبة في الاعتبار، ولا تتضمن تعديل قاعدة البيانات.

ويشدد مقداد كرمانجي على أن هذه العملية يمكن أن تكون "أداة مهمة جداً" لتمكين أدوات البحث من الاستجابة مثلاً لطلبات الحذف، عملاً بقواعد حماية البيانات الشخصية.


 ويؤكد أن الخوارزمية التي تم التوصل إليها أثبتت فاعليتها أيضاً في إزالة المحتوى المحميّ بموجب حقوق المؤلف أو في تصحيح بعض التحيزات. لكنّ آخرين كمسؤول الذكاء الاصطناعي في "ميتا" (فيسبوك وإنستعرام) يانّ لوكان، يبدون أقل اقتناعاً بهذه الفاعلية. ويوضح لوكان لوكالة فرانس برس أنه لا يقول إن هذه الخوارزمية "غير مجدية أو غير مثيرة للاهتمام أو سيئة"، بل يرى أن "ثمة أولويات أخرى".

ويعتبر أستاذ الذكاء الاصطناعي في جامعة إدنبره، مايكل روفاتسوس أن "الحل التقني ليس الحل الناجع". ويشرح أن "إلغاء التعلم" لن يتيح طرح أسئلة أوسع، ككيفية جمع البيانات، ومن المستفيد منها، أو من يجب أن يكون مسؤولا عن الضرر الذي يسببه الذكاء الاصطناعي.

 ومع أن قضية براين هود عولجت، من دون تفسير، بعدما حظيت باهتمام إعلامي واسع أثمرَ تصحيح البيانات التي تعالجها "تشات جي بي تي"، فإنه يعتبر أن الأساليب التي ينبغي استخدامها في الوقت الراهن يجب أن تبقى يدوية. ويقول الرجل الأسترالي "ينبغي أن يتحقق المستخدمون من كل شيء، في الحالات التي تعطي فيها روبوتات الدردشة معلومات خاطئة".

المصدر: أخبارنا

كلمات دلالية: الذکاء الاصطناعی

إقرأ أيضاً:

أخلاقيات الذكاء الاصطناعي في الإعلام: موازنة الابتكار والمسؤولية

بقلم إبراهيم راضي الصبح

مع التقدم السريع في تقنيات الذكاء الاصطناعي وتبنيها بشكل متزايد في مجال الإعلام، أصبح من الضروري التطرق إلى الجوانب الأخلاقية المتعلقة باستخدام هذه التكنولوجيا، وبينما يوفر الذكاء الاصطناعي فرصاً غير مسبوقة للابتكار في إنتاج المحتوى الإعلامي وتقديمه، فإنه يثير أيضاً تساؤلات مهمة حول المسؤولية والشفافية، وكيف يمكننا الموازنة بين فوائد الذكاء الاصطناعي في الإعلام والالتزام بالأخلاقيات الصحفية؟

من خلال تطبيقات الذكاء الاصطناعي، تمكنت المؤسسات الإعلامية من تحسين كفاءتها وتقديم تجارب جديدة للمستخدمين، فعلى سبيل المثال، تستخدم تقنيات تعلم الآلة لتحليل كميات ضخمة من البيانات لتقديم أخبار مخصصة تلائم اهتمامات كل فرد، بالإضافة إلى ذلك، تُستخدم أدوات الذكاء الاصطناعي لتحليل المشاعر على وسائل التواصل الاجتماعي، وتقديم رؤى حول كيفية تفاعل الجمهور مع المحتوى.

علاوة على ذلك، ظهرت تقنية “الروبوت الصحفي” التي تعتمد على الذكاء الاصطناعي لإنتاج أخبار بشكل آلي، خاصة في المجالات التي تتطلب معالجة كمية هائلة من البيانات مثل الأخبار المالية والرياضية، وجميع هذه التطورات تتيح للإعلاميين التركيز على العمل الاستقصائي والإبداعي، بينما يتولى الذكاء الاصطناعي الجوانب الروتينية.

مقالات ذات صلة حول ما حدث في لبنان: ثلاث نقاط / فاخر الدعاس 2024/09/19

ورغم الفوائد العديدة، إلا أن استخدام الذكاء الاصطناعي في الإعلام يطرح تحديات أخلاقية يجب مراعاتها:

أولها الشفافية والمصداقية، إذ يعتمد الجمهور على وسائل الإعلام للحصول على معلومات دقيقة وموثوقة، وعندما تُستخدم خوارزميات الذكاء الاصطناعي في إنتاج الأخبار، يصبح من الضروري توضيح كيفية عمل هذه الخوارزميات ومدى تأثيرها على اختيار وتقديم الأخبار، والشفافية في هذا السياق تعني إعلام الجمهور بأن الذكاء الاصطناعي قد استخدم في إعداد المحتوى.

ثانياً، التحيز في الخوارزميات، إذ تُصمم خوارزميات الذكاء الاصطناعي بناءً على البيانات التي تُدرَّب عليها، فإذا كانت هذه البيانات غير متوازنة أو متحيزة، فقد يؤدي ذلك إلى نتائج غير موضوعية أو متحيزة، على سبيل المثال، يمكن لخوارزمية توصية الأخبار أن تعزز التحيز التأكيدي من خلال عرض محتوى يوافق اهتمامات المستخدم دون تقديم وجهات نظر مختلفة.

ثالثاً، الخصوصية، حيث تعتمد العديد من تطبيقات الذكاء الاصطناعي في الإعلام على جمع وتحليل بيانات المستخدمين. لذلك، يتعين على المؤسسات الإعلامية ضمان حماية خصوصية الجمهور والالتزام بالقوانين المتعلقة بحماية البيانات.

ورابعاً، تأتي المساءلة، وذلك عندما يرتكب الذكاء الاصطناعي خطأً في تقديم الأخبار أو يسبب نشر معلومات مضللة، يُطرح سؤال حول من يتحمل المسؤولية، هنا يجب تحديد من هو المسؤول عن القرارات التي تتخذها الأنظمة الذكية.

ولتحقيق التوازن بين الابتكار والمسؤولية في استخدام الذكاء الاصطناعي في الإعلام، يجب اتباع نهج متكامل يجمع بين التقنيات المتقدمة والأخلاقيات الصحفية:

أولها تعزيز الشفافية، فعلى المؤسسات الإعلامية أن تكون واضحة بشأن استخدام الذكاء الاصطناعي في إنتاج المحتوى. يمكن ذلك من خلال الإفصاح عن دور الخوارزميات في تقديم الأخبار وتوضيح آلية عملها للجمهور.

ثانياً، ضمان جودة البيانات، وذلك لتقليل التحيز في الخوارزميات، إذ يجب التأكد من أن البيانات المستخدمة في تدريب نماذج الذكاء الاصطناعي شاملة ومتنوعة، ويجب أن تعكس البيانات مختلف وجهات النظر والمعلومات.

ثالثاً، تعزيز حماية الخصوصية، إذ يجب أن تلتزم المؤسسات الإعلامية بأفضل الممارسات في حماية بيانات المستخدمين. يجب جمع البيانات بطرق أخلاقية وشفافة، وضمان عدم استخدامها لأغراض غير مشروعة أو غير معلنة.

ورابعاً، تطوير سياسات المساءلة، ووضع سياسات واضحة تحدد من يتحمل المسؤولية عند حدوث أخطاء ناجمة عن استخدام الذكاء الاصطناعي، ليكون هناك نظام للرقابة والمراجعة الدورية للخوارزميات لضمان دقتها ونزاهتها.

وحيث يمثل الذكاء الاصطناعي فرصة مهمة لتعزيز الابتكار في مجال الإعلام، ولكنه يأتي مع تحديات أخلاقية تتطلب معالجة واعية ومسؤولة، ومن خلال تبني نهج يعتمد على الشفافية، والجودة، وحماية الخصوصية، والمساءلة، يمكن للإعلاميين الاستفادة من إمكانيات الذكاء الاصطناعي مع الحفاظ على القيم الأخلاقية التي تُشكل جوهر العمل الإعلامي.

مقالات مشابهة

  • دل تكشف كيف نستطيع تحقيق أهداف الاستدامة في عصر الذكاء الاصطناعي
  • الأهلي النادي الأول في مصر الذي يستخدم الذكاء الاصطناعي
  • شركات الذكاء الاصطناعي في خطر.. والسبب الاستثمارات الكبيرة
  • أخلاقيات الذكاء الاصطناعي في الإعلام: موازنة الابتكار والمسؤولية
  • حقيقة الذكاء الاصطناعي واستهلاك الطاقة
  • شراكة عالمية بمجال الذكاء الاصطناعي بين “إم جي إكس” و”بلاك روك” و”جلوبال إنفراستركتشر بارتنرز” و”مايكروسوفت”للاستثمار في مراكز البيانات
  • شراكة عالمية جديدة في مجال الذكاء الاصطناعي بين “إم جي إكس” و”بلاك روك” و”جلوبال إنفراستركتشر بارتنرز” و”مايكروسوفت” للاستثمار في مراكز البيانات
  • الذكاء الاصطناعي «يعالج» السرطان
  • الذكاء الاصطناعي يكافح السرطان
  • زوهو تدمج قدرات الذكاء الاصطناعي والتعلم الآلي في منصة تحليلات البيانات