د. مبارك بن خميس الصلطي

 

يطلق مصطلح شتاء الذكاء الاصطناعي على تلك الفترة الزمنية التي شهدت توقف العمل بتطوير الذكاء الاصطناعي نتيجة لنقص أو توقف التمويل وفتور حماسة العلماء له، سوف يناقش هذا المقال تأريخ الذكاء الاصطناعي والتحديات التي واجهته وكادت أن تقضي عليه وتأثيره على عالم الأعمال.

تعود البدايات الأولى الخجولة للذكاء الاصطناعي إلى سنة 1956 في أروقة كلية " دارتموث" في نيو هامبشاير بالولايات المتحدة الأمريكية وصاحب تلك البداية ارتفاع في سقف توقعات العلماء عن مستقبل الذكاء الاصطناعي.

وبسبب ارتفاع تكلفة الأبحاث وقصور الجدوى منها وعدم اقترابها من تلك التوقعات العالية دفع بالكونغرس الأمريكي عام 1973 لوقف تمويل الأبحاث الموجهة لتطوير الذكاء الاصطناعي وتناغمت مع هذا القرار بريطانيا أيضا.

ومع بزوغ النهضة العلمية في الجانب الآسيوي من العالم بقيادة اليابان والتي ضخت مليارات اليوانات بعملتها المحلية في مشاريع الذكاء الاصطناعي أحيت أمل العلماء من جديد بهذا المشروع لكن صغر حجم ذواكر أجهزة الحواسيب في مطلع الثمانينات من القرن الماضي أجهض المشروع مرة أخرى.

وفي مطلع القرن الحالي ومع تطور تخصص "تعلم الآلة" تمكنت الخوارزميات والنماذج الإحصائية من أداء مهامها المطلوبة منها دون برمجة سابقة أو الاعتماد على خبرات العلماء وملاحظاتهم مما اعتبر فتحًا علميًا كبيرًا في الذكاء الاصطناعي توسعت تطبيقاته في شتى التخصصات العلمية والصناعية مثل روبوتات المساعدة في المطارات وروبوتات إنقاذ العالقين في الأماكن الخطرة والتي تستخدم في أوقات الطوارئ إلى السيارات ذاتية القيادة وكذلك والمُسيَّرات الحربية.

وكاد أن يكون نوفمبر الماضي شتاء آخر للذكاء الاصطناعي حينما قامت شركة جوجل بتعليق إنشاء الصور لـ"جيمناي" بسبب شكاوى المستخدمين لتوليده صورًا غير دقيقة ثم أعيد طرح استخدامه في الأسواق وما زال يحتاج للمزيد من التطوير.

ثم واجه الذكاء الاصطناعي تحديًا من نوع مختلف ومن الجانب الأخلاقي هذه المرة ، حيث أوردت الصحف عن التصرف المسؤول لرئيس البرمجيات في شركة مايكروسوفت" شين جونز" بعد أن انتبه للاستخدام السيئ من قبل البعض لمنشئ الصور المدعومة بالذكاء الصناعي لبرنامج" كوبايلوت ديزاينر" فأنتج صورًا تحتوي على العنف والجنس؛ فقام بمخاطبة الجهات الرسمية في الشركة منبهاً ومحذرًا من تلك الثغرة واعتبرها سقطة خطيرة قد تنتهك وتعرض من هم دون السن القانوني لخطر جسيم واستجابت الشركة لهذه المخاوف وقامت بحلها.

ويمثل الذكاء الاصطناعي سفينة النجاة لإنعاش سوق الهواتف النقالة وسبب رئيس لعودة الزخم لمبيعاتها بعد أن انحسرت مبيعاتها في السنوات العشر الأخيرة ووصلت لأدنى مستوياتها نتيجة عدة عوامل منها التضخم وغلاء الأسعار مما دفع بالمستهلكين لاستخدام هواتفهم لمدة زمنية أطول .وعند استخدام تقنية "متقدمة "من الذكاء الاصطناعي وليست تقنية "أساسية" كما هو موجود في معظم هواتفنا اليوم سيرفع معدل المبيعات مرة أخرى لذلك تعول كثيرًا شركات الهواتف النقالة على حملات التسويق والترويج لتسليط الضوء على هذه المزايا. وهذا في حد ذاته سيدفع شركات الهواتف لتوظيف الكثير من خريجي أقسام التسويق للاستعانة بهم للخروج من دائرة الركود.

وقد عبّر إيلون ماسك- وهو أحد عمالقة المستثمرين في الذكاء الاصطناعي- عن اعتقاده بضرورة إتاحة ونشر ابتكارات الأكواد الخاصة بتطبيقات الذكاء الاصطناعي للجميع وأنه لا يجوز كتمانها لضمان الشفافية وعدم احتكار العلم. لهذا رفع دعوى قضائية ضد شركة "أوبن أيه آي" مطلع مارس الجاري، واتهمها بالتخلي عن حماية البشرية من أضرار الذكاء الاصطناعي لعدم مشاركتها الآخرين لتلك الأكواد وذلك لأنها ترى - من وجهة نظرها- أن النشر يهدد الأمن القومي للدول.

ويُعبِّر الصراع القضائي في أروقة المحاكم الأمريكية عن وجهات النظر المتعارضة بين المهيمنين على الذكاء الاصطناعي حول كيفية تطوير أدوات الذكاء وتأثيرها على أمن واستقرار الدول.

ختامًا.. يبقى التساؤل هل ستمضي مسيرة التطور في الذكاء الصناعي للأمام؟ أم سنشهد تأجيلًا آخر لثورة تبدو من بعيد أنها آتية لتنقل البشرية إلى عهد جديد لم تعرفه من قبل؟!

المصدر: جريدة الرؤية العمانية

إقرأ أيضاً:

أخلاقيات الذكاء الاصطناعي في الإعلام: موازنة الابتكار والمسؤولية

بقلم إبراهيم راضي الصبح

مع التقدم السريع في تقنيات الذكاء الاصطناعي وتبنيها بشكل متزايد في مجال الإعلام، أصبح من الضروري التطرق إلى الجوانب الأخلاقية المتعلقة باستخدام هذه التكنولوجيا، وبينما يوفر الذكاء الاصطناعي فرصاً غير مسبوقة للابتكار في إنتاج المحتوى الإعلامي وتقديمه، فإنه يثير أيضاً تساؤلات مهمة حول المسؤولية والشفافية، وكيف يمكننا الموازنة بين فوائد الذكاء الاصطناعي في الإعلام والالتزام بالأخلاقيات الصحفية؟

من خلال تطبيقات الذكاء الاصطناعي، تمكنت المؤسسات الإعلامية من تحسين كفاءتها وتقديم تجارب جديدة للمستخدمين، فعلى سبيل المثال، تستخدم تقنيات تعلم الآلة لتحليل كميات ضخمة من البيانات لتقديم أخبار مخصصة تلائم اهتمامات كل فرد، بالإضافة إلى ذلك، تُستخدم أدوات الذكاء الاصطناعي لتحليل المشاعر على وسائل التواصل الاجتماعي، وتقديم رؤى حول كيفية تفاعل الجمهور مع المحتوى.

علاوة على ذلك، ظهرت تقنية “الروبوت الصحفي” التي تعتمد على الذكاء الاصطناعي لإنتاج أخبار بشكل آلي، خاصة في المجالات التي تتطلب معالجة كمية هائلة من البيانات مثل الأخبار المالية والرياضية، وجميع هذه التطورات تتيح للإعلاميين التركيز على العمل الاستقصائي والإبداعي، بينما يتولى الذكاء الاصطناعي الجوانب الروتينية.

مقالات ذات صلة حول ما حدث في لبنان: ثلاث نقاط / فاخر الدعاس 2024/09/19

ورغم الفوائد العديدة، إلا أن استخدام الذكاء الاصطناعي في الإعلام يطرح تحديات أخلاقية يجب مراعاتها:

أولها الشفافية والمصداقية، إذ يعتمد الجمهور على وسائل الإعلام للحصول على معلومات دقيقة وموثوقة، وعندما تُستخدم خوارزميات الذكاء الاصطناعي في إنتاج الأخبار، يصبح من الضروري توضيح كيفية عمل هذه الخوارزميات ومدى تأثيرها على اختيار وتقديم الأخبار، والشفافية في هذا السياق تعني إعلام الجمهور بأن الذكاء الاصطناعي قد استخدم في إعداد المحتوى.

ثانياً، التحيز في الخوارزميات، إذ تُصمم خوارزميات الذكاء الاصطناعي بناءً على البيانات التي تُدرَّب عليها، فإذا كانت هذه البيانات غير متوازنة أو متحيزة، فقد يؤدي ذلك إلى نتائج غير موضوعية أو متحيزة، على سبيل المثال، يمكن لخوارزمية توصية الأخبار أن تعزز التحيز التأكيدي من خلال عرض محتوى يوافق اهتمامات المستخدم دون تقديم وجهات نظر مختلفة.

ثالثاً، الخصوصية، حيث تعتمد العديد من تطبيقات الذكاء الاصطناعي في الإعلام على جمع وتحليل بيانات المستخدمين. لذلك، يتعين على المؤسسات الإعلامية ضمان حماية خصوصية الجمهور والالتزام بالقوانين المتعلقة بحماية البيانات.

ورابعاً، تأتي المساءلة، وذلك عندما يرتكب الذكاء الاصطناعي خطأً في تقديم الأخبار أو يسبب نشر معلومات مضللة، يُطرح سؤال حول من يتحمل المسؤولية، هنا يجب تحديد من هو المسؤول عن القرارات التي تتخذها الأنظمة الذكية.

ولتحقيق التوازن بين الابتكار والمسؤولية في استخدام الذكاء الاصطناعي في الإعلام، يجب اتباع نهج متكامل يجمع بين التقنيات المتقدمة والأخلاقيات الصحفية:

أولها تعزيز الشفافية، فعلى المؤسسات الإعلامية أن تكون واضحة بشأن استخدام الذكاء الاصطناعي في إنتاج المحتوى. يمكن ذلك من خلال الإفصاح عن دور الخوارزميات في تقديم الأخبار وتوضيح آلية عملها للجمهور.

ثانياً، ضمان جودة البيانات، وذلك لتقليل التحيز في الخوارزميات، إذ يجب التأكد من أن البيانات المستخدمة في تدريب نماذج الذكاء الاصطناعي شاملة ومتنوعة، ويجب أن تعكس البيانات مختلف وجهات النظر والمعلومات.

ثالثاً، تعزيز حماية الخصوصية، إذ يجب أن تلتزم المؤسسات الإعلامية بأفضل الممارسات في حماية بيانات المستخدمين. يجب جمع البيانات بطرق أخلاقية وشفافة، وضمان عدم استخدامها لأغراض غير مشروعة أو غير معلنة.

ورابعاً، تطوير سياسات المساءلة، ووضع سياسات واضحة تحدد من يتحمل المسؤولية عند حدوث أخطاء ناجمة عن استخدام الذكاء الاصطناعي، ليكون هناك نظام للرقابة والمراجعة الدورية للخوارزميات لضمان دقتها ونزاهتها.

وحيث يمثل الذكاء الاصطناعي فرصة مهمة لتعزيز الابتكار في مجال الإعلام، ولكنه يأتي مع تحديات أخلاقية تتطلب معالجة واعية ومسؤولة، ومن خلال تبني نهج يعتمد على الشفافية، والجودة، وحماية الخصوصية، والمساءلة، يمكن للإعلاميين الاستفادة من إمكانيات الذكاء الاصطناعي مع الحفاظ على القيم الأخلاقية التي تُشكل جوهر العمل الإعلامي.

مقالات مشابهة

  • الأهلي النادي الأول في مصر الذي يستخدم الذكاء الاصطناعي
  • شركات الذكاء الاصطناعي في خطر.. والسبب الاستثمارات الكبيرة
  • عالم بيطري بكفر الشيخ ضمن أفضل 2% من العلماء بقائمة ستانفورد الأمريكية
  • 48 عالمًا من جامعة طنطا ضمن قائمة ستانفورد المعلنة لأفضل 2% من علماء العالم
  • أخلاقيات الذكاء الاصطناعي في الإعلام: موازنة الابتكار والمسؤولية
  • حقيقة الذكاء الاصطناعي واستهلاك الطاقة
  • قائمة أجهزة اتصالات قاتلة استخدمتها إسرائيل لاغتيالات هي الأخطر في تاريخها منها أبرز قيادي لحركة حماس
  • الذكاء الاصطناعي «يعالج» السرطان
  • الذكاء الاصطناعي يكافح السرطان
  • زوهو تدمج قدرات الذكاء الاصطناعي والتعلم الآلي في منصة تحليلات البيانات