على هامش انعقاد "المنتدى الدولي للاقتصاد المستدام 2024
تاريخ النشر: 21st, October 2024 GMT
عبيدلي العبيدلي **
التعاون بين الحكومة والصناعة والمجتمع المدنييعد التعاون بين الحكومات والصناعة والمجتمع المدني أمرًا ضروريًا لتحقيق إمكانات الذكاء الاصطناعي بشكل كامل في تحقيق أهداف التنمية المستدامة (SDGs) وخلق مستقبل أكثر إنصافا واستدامة. إليك كيفية تلقي هذا التعاون وتنفيذه لتعظيم التأثير الإيجابي للذكاء الاصطناعي:
1.
دور الحكومة: وضع الأساس من خلال السياسة والتنظيم
تمارس الحكومات دورًا حاسمًا في تشكيل الأطر التنظيمية والسياسية التي تضمن استخدام الذكاء الاصطناعي بشكل أخلاقي وشامل وللصالح العام. ويتعين على الحكومات أيضاً أن تعمل على تهيئة بيئة مواتية لازدهار الذكاء الاصطناعي، وخاصة من خلال الاستثمار في التعليم والبنية الأساسية والإبداع.
تطوير سياسات الذكاء الاصطناعي الشاملة: يجب على الحكومات تصميم سياسات الذكاء الاصطناعي التي تعزز الوصول العادل إلى التقنيات الذكاء الاصطناعي، وتضمن وصول فوائدها إلى المجتمعات المُهمشة والمحرومة من الخدمات. يجب أن تتضمن هذه السياسات لوائح حول خصوصية البيانات وأخلاقيات الذكاء الاصطناعي وشفافية الخوارزميات. على سبيل المثال، يوفر قانون الذكاء الاصطناعي للاتحاد الأوروبي إطارا ينظم تكنولوجيات الذكاء الاصطناعي مع ضمان توافقها مع حقوق الإنسان والقيم الديمقراطية. ويمكن للبلدان النامية أن تنشئ أطرا مماثلة تناسب احتياجاتها الفريدة. الشراكات بين القطاعين العام والخاص: يجب على الحكومات تعزيز الشراكات مع قادة الصناعة للاستفادة من الذكاء الاصطناعي للخدمات العامة مثل الرعاية الصحية والتعليم وتطوير البنية التحتية. ومن الأمثلة الرائعة على ذلك مبادرة الذكاء الاصطناعي للجميع في الهند، التي تشجع التعاون بين الحكومة والقطاعين الخاص لدفع تبني الذكاء الاصطناعي في قطاعي الرعاية الصحية والزراعة، والتي تهدف على وجه التحديد إلى تحسين الرفاهية العامة. التمويل والاستثمار: ينبغي للحكومات تخصيص التمويل للبحوث الذكاء الاصطناعي وبناء القدرات والبنية التحتية. على سبيل المثال، استثمرت حكومة رواندا في مدينة كيغالي للابتكار، وهي مركز أفريقي للابتكار والذكاء الاصطناعي. ويمكن لمثل هذه الاستثمارات أن تحفز الابتكار في الذكاء الاصطناعي المحلي مع جذب شركات التكنولوجيا العالمية للتعاون في مشاريع مفيدة اجتماعيا.2. دور الصناعة: دفع الابتكار والنمو الاقتصادي
على نحو مواز يمارس القطاع الخاص، بما في ذلك شركات تكنولوجيا الذكاء الاصطناعي والصناعات ذات الصلة، دورًا محوريًا في دفع الابتكار الذكاء الاصطناعي، وتوفير الأدوات والمنصات اللازمة لازدهار الذكاء الاصطناعي، والاستثمار في حلول التنمية المستدامة التي تقودها الذكاء الاصطناعي.
برامج المسؤولية الاجتماعية للشركات (CSR): يجب على الشركات دمج مبادرات الذكاء الاصطناعي في برامج المسؤولية الاجتماعية للشركات الخاصة بها، بما يتماشى مع أهداف التنمية المستدامة. على سبيل المثال، يعد برنامج الذكاء الاصطناعي for Earth من Microsoft برنامجا عالميا يستخدم الذكاء الاصطناعي لحل التحديات البيئية مثل تغير المناخ والحفاظ عليه. ويمكن تكرار هذا النموذج لاستهداف أهداف التنمية المستدامة الأخرى، مثل الحد من الفقر (الهدف 1 من أهداف التنمية المستدامة) أو تحسين الصحة والرفاه (الهدف 3 من أهداف التنمية المستدامة). يجب أن تركز شركات الحلول الذكاء الاصطناعي الشاملة على تطوير تقنيات الذكاء الاصطناعي تلبي احتياجات البلدان النامية والسكان المهمشين. ومن خلال تصميم منتجات الذكاء الاصطناعي مصممة خصيصا لهذه الأسواق، يمكن للشركات إنشاء حلول قابلة للتطوير لتحديات الزراعة والتعليم والرعاية الصحية الحرجة. وتجسد شركة Zipline، وهي شركة ناشئة تقوم بتوصيل الإمدادات الطبية عبر طائرات بدون طيار تعمل بالطاقة الذكاء الاصطناعي إلى المناطق الأفريقية النائية. ممارسات الذكاء الاصطناعي الأخلاقية: يجب على الصناعة التنظيم الذاتي واعتماد أطر الذكاء الاصطناعي الأخلاقية لضمان أن تكون أنظمة الذكاء الاصطناعي شفافة وعادلة وغير متحيزة. تظهر مبادرات مثل مبادئ Google الذكاء الاصطناعي أو إرشادات الذكاء الاصطناعي الأخلاقية لشركة IBM كيف يمكن للشركات الالتزام بتطوير الذكاء الاصطناعي المسؤول.3. دور المجتمع المدني: ضمان الشمولية والاعتبارات الأخلاقية
يمكن لمنظمات المجتمع المدني أن تلعب دورا حيويا في ضمان تطوير الذكاء الاصطناعي التقنيات ونشرها بطرق أخلاقية ومنصفة وتركز على العدالة الاجتماعية. إنهم يعملون كمراقبين ودعاة وميسرين للتوعية العامة حول الذكاء الاصطناعي.
الدعوة من أجل العدالة والشمول: يجب على منظمات المجتمع المدني ضمان عدم احتكار عدد قليل منها للمنافع الذكاء الاصطناعي وإشراك الفئات الضعيفة في الحلول التي تحركها الذكاء الاصطناعي. تدعو منظمات مثل Access Now إلى الاستخدام المسؤول الذكاء الاصطناعي، مع التركيز على الشفافية وحقوق الإنسان والمساءلة. يمكن لمنظمات المجتمع المدني أيضا العمل مع الحكومات لضمان أن تعطي السياسات الذكاء الاصطناعي الأولوية للوصول العادل والإدماج للفئات المهمشة، ولا سيما النساء والشباب والمجتمعات الريفية. سد الفجوة الرقمية: يمكن للمجتمع المدني أن يساعد في سد الفجوة الرقمية من خلال تعزيز محو الأمية الرقمية وبرامج بناء القدرات. تتعاون Code.org، وهي منظمة غير ربحية، مع الحكومات والمدارس والمجتمعات لضمان حصول الطلاب، لا سيما في المناطق المحرومة، على تعليم الذكاء الاصطناعي. ويمكن لهذا التعاون أن يساعد البلدان النامية على بناء قوة عاملة بارعة في مجال التكنولوجيا قادرة على الاستفادة من الذكاء الاصطناعي من أجل التنمية. حلول الذكاء الاصطناعي التي يحركها المجتمع: يمكن لمنظمات المجتمع المدني تسهيل تطوير حلول الذكاء الاصطناعي يحركها المجتمع مصممة خصيصا لتلبية الاحتياجات المحلية. على سبيل المثال، تستخدم DataKind، وهي منظمة غير ربحية، الذكاء الاصطناعي لمساعدة المنظمات غير الربحية الأخرى على حل التحديات الاجتماعية من خلال تطبيق الذكاء الاصطناعي وعلوم البيانات على مشاكل العالم الحقيقي مثل الإغاثة من الجوع والتعليم.** خبير إعلامي
رابط مختصرالمصدر: جريدة الرؤية العمانية
إقرأ أيضاً:
مخاطر الذكاء الاصطناعي على التعليم والبحث العلمي
يحظى موضوع الذكاء الاصطناعي باهتمام واسع عبر العالم في المناقشات والمنتديات والمجادلات حول الموضوع. ولقد سبق أن تناولت هذا الموضوع في مقالين بهذه الجريدة الرصينة: أحدهما عن الذكاء الاصطناعي والإبداع، والآخر عن الذكاء الاصطناعي والترجمة. ولكن هذا الموضوع يحتمل المزيد من التأملات دائمًا، إذ إن له أبعادًا كثيرةً لا حصر لها؛ ولذلك فإنني أريد في هذا المقال التنويه إلى تأثير الذكاء الاصطناعي على العملية التعليمية والبحث العلمي.
وقد يبدو أن استخدام كلمة «تأثير» أفضل من استخدام كلمة «مخاطر» الواردة في عنوان هذا المقال؛ لأن هذه الكلمة الأخيرة قد لا تبدو محايدة، وإنما تنطوي على حكم مسبق يتخذ موقفًا متحيزًا ضد تقنيات الذكاء الاصطناعي. وهذا تفسير غير صحيح؛ لأن كلمة «مخاطر» تعني أن هناك طريقًا نسير عليه -أو ينبغي أن نسير فيه- ولكنه يكون محفوفًا بالمخاطر التي ينبغي أن ندركها لكي يمكن اجتنابها. فلا مراء في أن الذكاء الاصطناعي يمثل ثورة كبرى في المعرفة البشرية.
هذه الثورة المعرفية تتمثل في القدرة الهائلة للآلة على توفير بيانات ضخمة في أي مجال معرفي، بل يمكن لبرامج هذه الآلة أن تؤلف نصوصًا أو موضوعات بحثية أو تصمم ابتكارات ومخترعات باستخدام هذه البيانات.
ولقد أثمرت هذه الثورة المعرفية بوجه خاص في مجال تطبيقات العلوم الدقيقة، وعلى رأسها الرياضيات البحتة التي تمتد جذورها في النهاية في المنطق الرياضي، كما لاحظ ذلك برتراند رسل بشكل مدهش في مرحلة مبكرة للغاية في كتابه أصول الرياضيات!
ولا شك أيضًا في أن الذكاء الاصطناعي له استخدامات مثمرة في مجال العملية التعليمية، إذ إنه يسهِّل على المعلم والطالب معًا بلوغ المعلومات المهمة والحديثة في مجال الدراسة، ويقدِّم المعلومات للطلبة بطريقة شيقة ويشجعهم على البحث والاستكشاف بأنفسهم.
وهنا على وجه التحديد مكمن المشكلة، فعندما نقول: «إن الذكاء الاصطناعي يشجع الطلبة على البحث والاستكشاف بأنفسهم»، فإننا ينبغي أن نأخذ هذه العبارة بمعناها الدقيق، وهو أن الذكاء الاصطناعي هو ذكاء الآلة، والآلة دائمًا هي أداة للاستخدام، وبالتالي فإنها لا يمكن أن تكون بديلًا لدور المستخدِم الذي يجب أن يقوم بنفسه بالبحث والاستكشاف. وهذا يعني أن سوء استخدام الذكاء الاصطناعي والتعويل عليه في عملية التعلم، سيؤدي إلى القضاء على روح المبادرة والاكتشاف، وسيحول دون تعلم مهارات التفكير الناقد critical thinking وتنميتها من خلال عملية التفاعل المباشر بين الطلبة والمعلم. وتلك كلها مخاطر حقيقية على التعليم.
ولا تقل عن ذلك مخاطر الذكاء الاصطناعي في البحث العلمي الذي يصبح تكريسًا لسوء استخدام هذا الذكاء في مراحل التعليم المختلفة. بل إن المخاطر هنا تصبح أشد وأكثر ضررًا؛ لأنها تتعلق بتكوين باحثين وأساتذة يُرَاد لهم أو يُرجى منهم أن يكونوا علماء حقيقيين في مجالاتهم البحثية المتنوعة. ولعل أشد هذه المخاطر هو شيوع السرقات العلمية من خلال برامج الذكاء الاصطناعي التي تقوم بعملية التأليف من خلال كتابات ودراسات وبحوث منشورة؛ وهو ما قد يشجع الباحث على استخدام المادة المُقدّمة له باعتبارها من تأليفه ودون ذكر للمصادر الأصلية التي استُمدت منها هذه المادة.
حقًّا أن الذكاء الاصطناعي نفسه قد ابتكر برامج لاكتشاف السرقات العلمية (لعل أشهرها برنامج Turnitin)؛ ولكن هذا لا يمنع الباحثين الذين يفتقرون إلى أخلاقيات البحث العلمي من التحايل على مثل هذه البرامج من خلال التمويه، وذلك بتطعيم البحث بمادة موثقة من مصادرها، بحيث يبدو البحث مقبولًا في الحد الأدنى من نسبة الاقتباسات المشروعة! وهذا أمر لا ينتمي إلى البحث العلمي ولا إلى الإبداع والابتكار.
وبصرف النظر عن مسألة السرقات العلمية، فإن الاعتماد على الذكاء الاصطناعي في البحث العلمي له مخاطر أخرى تتمثل في أن المادة المقتبَسة كثيرًا ما تكون مشوهة أو غير دقيقة، وهذا يتبدى -على سبيل المثال- في حالة النصوص المقتبسة المترجَمة التي تقع في أخطاء فادحة وتقدم نصًا مشوهًا لا يفهم مقاصد المؤلف الأصلي، وهذا ما فصلت القول فيه في مقال سابق. وفضلًا عن ذلك، فإن برامج الذكاء الاصطناعي لا تخلو من التحيز (بما في ذلك التحيز السياسي)؛ ببساطة لأنها مبرمَجة من خلال البشر الذين لا يخلون من التحيز في معتقداتهم، وهذا ما يُعرف باسم «الخوارزميات المتحيزة» biased algorithms.
ما يُستفاد من هذا كله هو أن الذكاء الاصطناعي ينبغي الاستعانة به في إطار الوعي بمخاطره؛ ومن ثم بما ينبغي اجتنابه، ولعل هذا ما يمكن تسميته «بأخلاقيات الذكاء الاصطناعي»، وهي أخلاقيات ينبغي أن تَحكم برامج هذا الذكاء مثلما تَحكم المستخدم نفسه.