توجه مدير إدارة المنظمات والإتحادات العربية- قطاع الشؤون الإقتصادية- الأمانة العامة لجامعة الدول العربية، الدكتور رائد على صالح الجبوري بالشكر  للأكاديمية العربية للعلوم والتكنولوجيا والنقل البحري، كما توجه بالشكر  للمشاركين والمتحدثين الذين أبدوا حرصهم على إثراء أعمال هذه الورشة بمداخلاتهم المختلفة.

كما نقل تحيات أحمد أبو الغيط، الأمين العام لجامعة الدول العربية، والسفير الدكتور  علي بن إبراهيم المالكي، الأمين العام المساعد للشؤون الاقتصادية، للمشاركين، وتمنياتهما لهذه الورشة بالنجاح في إعداد المخرجات المنتظرة التي تساهم في تعزيز العمل العربي المشترك بالمجالات ذات الصلة.

جاء ذلك خلال فعاليات  ورشة العمل العربية حول تعزيز الوعي بأخلاقيات استخدام الذكاء الاصطناعي في ظل التقدم في مجال التكنولوجيا العصبية" والتي تنظمها الأكاديمية العربية للعلوم والتكنولوجيا والنقل البحري بالتعاون والتنسيق مع الامانة العامة للجامعة العربية والمنظمة الامم المتحدة للتربية والثقافة والعلوم ( اليونسكو) وذلك من خلال مكاتبها الاقليمية  فى المنطقة العربية (المكتب الاقليمى لمصر والسودان ونقطة الاتصال مع جامعة الدول العربية – والمكتب الاقليمى لليونسكو لمنطقة الخليج العربى واليمن بالدوحة).

وأكد انه من المناسب التذكير هنا بأن هذه الورشة تُعقد في إطار تنفيذ قرار الدورة العادية الأخيرة السادسة والخمسين للجنة التنسيق العليا للعمل العربي المشترك، والتي عقدت برئاسة  الأمين العام للجامعة، خلال الفترة من 22-24 أبريل الماضي، حيث تضمّن هذا القرار دعوة الأكاديمية بالتعاون مع الأمانة العامة للجامعة إلى عقد ورشة عمل عربية حول تعزيز التوعية بأخلاقيات إستخدام الذكاء الاصطناعي بين المطورين والمستخدمين والجمهور بشكل عام، وبما يمكن أن يساهم في تشكيل ثقافة تقدير للمخاطر الأخلاقية والاجتماعية لتطبيقات الذكاء الاصطناعي، كما تضمن دعوة الأكاديمية بالتعاون مع مؤسسات العمل العربي المشترك المعنية إلى دعم الدراسات والبحوث في مجال الأخلاقيات الذكية لتطوير أدوات ومباديء توجه إستخدام الذكاء الاصطناعي بمسؤولية وأخلاقية، ولا يخفى أن هذا المضمون يتسق مع ما جاء في القرار رقم (29 /42c) الذي اعتمده المؤتمر العام لليونسكو في دورته الثانية والأربعين، بشأن وضع أول أداة معيارية عالمية تتعلق بأخلاقيات التكنولوجيا العصبية في شكل توصية، وما يستلزمه ذلك من إجراء مشاورات مكثفة بين أصحاب المصلحة المتعددين على المستويات الوطنية والإقليمية والدولية، لضمان أن يعكس مشروع التوصية مجموعة واسعة من وجهات النظر حول الحقائق العملية والأخلاقيات الخاصة بتطبيق التكنولوجيا العصبية،

وقال " لقد كان الذكاء الاصطناعي، بالأمس القريب، مجرد تصور يرسمه الخيال العلمي، ومجال تستلهم منه السينما بعض قصصها، وتجتهد قلة من المختبرات العلمية لتطويره، وها هو اليوم يصبح حقيقة وجزءاً من حياتنا اليومية، حيث دخلت استخدامات هذه التكنولوجيا التي تحاكي العقل البشري في قدراته، إلى جميع المجالات من الطب إلى التعليم والأمن وغيرها، ولقد شهد العقد الأخير تطوراً مذهلاً للبحوث العلمية المهتمة بالذكاء الاصطناعي، إذ يشير تقرير حديث أعدته جامعة ستانفورد الأمريكية بالتعاون مع وكالة ناسا وشركة مايكروسوفت أن عدد الدوريات والإصدارات العلمية المتخصصة في هذا الشأن زاد بأكثر من 6 أضعاف خلال السنوات الخمس الأخيرة، وهو مستمر بالإرتفاع، خاصة في ظل توجه الدول والشركات والمؤسسات العسكرية لضخ إستثمارات ضخمة للإستفادة مما تتيحه هذه التكنولوجيا من قدرات استثنائية قد تتجاوز تلك التي يمتلكها العقل البشري، وتمثل حصة الدول العربية من هذه البحوث -للأسف- عدداً ضئيلاً، وتفرض عليها هذه التحديات العمل على توفير الظروف التي تساهم في تطوير قدراتها وفق استراتيجيات وطنية شاملة ومحكمة للحاق بركب هذه الثورة، وأود من هذا المنبر أن أُحيي الدول العربية التي أطلقت إستراتيجياتها في مجال الذكاء الاصطناعي، وأتمنى أن تخطو بقية الدول خطىً مُماثلة.

وتابع في ضوء ما تقدم، فإن موضوع الذكاء الاصطناعي، يُعد في مقدمة هذه الأولويات، كونه يشمل أبعاداً مختلفة، تكنولوجية وإقتصادية واجتماعيّة، بعد أن أصبحنا اليوم نعيش عصراً تشكِّل فيه البيانات مورداً رئيسياً من موارد النمو الاقتصادي، وأصبحت قدرات الدول وإمكاناتها تُقاس بمدى تحكمها في تكنولوجيا المعلومات والإستفادة من البيانات الضخمة.

المصدر: بوابة الوفد

كلمات دلالية: الإسكندرية الذكاء الاصطناعي

إقرأ أيضاً:

نصائح كاسبرسكي للحد من مخاطر الذكاء الاصطناعي التوليدي في بيئة العمل

سرعان ما أصبحت أدوات الذكاء الاصطناعي التوليدي جزءاً أساسياً من بيئة العمل الحديثة، حيث تساعد في عدد من مهام العمل التي تتراوح من صياغة التقارير وحتى تحليل جداول البيانات وغيرها. 

ووجدت دراسة عالمية أجرتها كاسبيرسكي أن 95% من المشاركين من كبار المسؤولين التنفيذيين يدركون أن أدوات الذكاء الاصطناعي التوليدي تُستخدم داخل مؤسساتهم، وكان أكثر من نصفهم (59%) قلقاً من مخاطر تسريب الموظفين لمعلومات حساسة دون قصد عند استخدام الذكاء الاصطناعي، لذا، يقدم خبراء كاسبرسكي نصائح حول كيفية تمكين المؤسسات من استخدام أدوات الذكاء الاصطناعي التوليدي بطريقة تقلل من المخاطر.

قال فلاديسلاف توشكانوف، مدير مجموعة تعلم الآلة لدى كاسبرسكي: «تمكن أدوات الذكاء الاصطناعي التوليدي الموظفين من تحقيق إنتاجية أعلى، حيث تساعد التكنولوجيا في تحليل البيانات وتنفيذ المهام الروتينية. ومع ذلك، يستخدم العديد من الأشخاص الذكاء الاصطناعي دون الحصول على الأذون المطلوبة من أصحاب العمل. مما قد يشكل مخاطراً كبيرة على المنظمة. فعلى سبيل المثال، يستمر تسريب البيانات بكونه مصدر قلق كبير في المجال. وعلاوة على ذلك، قد يحصل الموظفون على معلومات خاطئة ويتصرفون بناءً عليها نتيجة مغالطات الذكاء الاصطناعي. إذ يحدث ذلك عندما تقدم النماذج اللغوية الكبيرة معلومات خاطئة بشكل يبدو موثوقاً. ويمكن أن تكون هذه المغالطات خطيرة أكثر حتى عند استخدام الذكاء الاصطناعي التوليدي للمشورة حول كيفية إكمال مهام معينة في العمل.»

أصبحت مواجهة هذا التحدي ضرورة حتمية للأعمال حالياً. فقد كشف استطلاع آخر أجرته كاسبرسكي أن 40% من المشاركين في الشرق الأوسط و تركيا و أفريقيا يرون الذكاء الاصطناعي كأحد أفراد فريق العمل حالياً. وما يزيد من تعقيد الأمر هو مدى فعالية مصادر التهديد في تبني أدوات الذكاء الاصطناعي التوليدي لإنشاء هجمات هندسة اجتماعية أكثر إقناعاً لدى استهداف الأفراد. ويتضمن ذلك استخدامات مثل صياغة رسائل تصيد احتيالي مخصصة؛ وتوليد مقاطع تزييف عميق تحتوي أصواتاً، أو فيديو، أو نصوصاً واقعية تنتحل شخصيات الأفراد؛ ونشر حملات التضليل التي يمكن أن تؤثر على الرأي العام أو تحجب الحقيقة.

 

استطرد توشكانوف: «لا يعني ذلك وجوب منع المنظمات لأدوات الذكاء الاصطناعي التوليدي بشكل كامل. بل يجب على صناع القرار إجراء تقييم شامل للمخاطر لفهم أي أجزاء من روتين الأعمال اليومي يمكن أتمتتها باستخدام أدوات الذكاء الاصطناعي التوليدي دون رفع مستوى التهديدات التي تواجهها الشركات.» 

بذلك، يمكن للمؤسسات اعتماد نهج مركزي عندما يتعلق الأمر بتبني الذكاء الاصطناعي التوليدي. فمن الممكن الحصول على الخدمات عبر حسابات مؤسسية من مزودي الخدمات السحابية مع ضمان وجود جميع معايير الحماية اللازمة. ويمكن أن تشمل هذه المعايير مراقبة أي معلومات تعريف شخصية محتملة في الرسائل، فضلاً عن الإشراف العام. كما ينبغي على المنظمات تثقيف موظفيها حول الاستخدام المقبول للذكاء الاصطناعي التوليدي والطرق المناسبة للوصول إليه تحت إشراف الشركة.

يمكن للمؤسسات تحسين إنتاجية الموظفين بشكل كبير وزيادة رضاهم الوظيفي من خلال فهم فوائد ومخاطر استخدام الذكاء الاصطناعي التوليدي والتأكد من وجود التدابير الأمنية الضرورية لتفادي أي مخاطر محتملة. ويجب أن تتضمن القواعد العامة للموظفين عدم الكشف عن البيانات السرية لأدوات الذكاء الاصطناعي؛ وعدم الاعتماد على نصائحها في أي الحالات الحساسة؛ والتحقق من المعلومات؛ وتذكر أن البيانات المقدمة إلى روبوت المحادثة يمكن أن تتسرب. كما يجب التحقق من كون جميع الحواسيب والخوادم التي تعمل بأنظمة قائمة على النماذج اللغوية الكبيرة محمية بأدوات أمنية حديثة.

واختتم توشكانوف قوله: «قد لا يكون حظر أدوات مثل ChatGPT وسواها هو الخيار الأفضل. إذ يمكن استخدام الذكاء الاصطناعي التوليدي بشكل إيجابي من خلال إيجاد موقف متوازن بين الحذر الأشد من اللازم والحذر الأقل من اللازم. وعلى نطاق أوسع، يمكن للشراكات بين القطاعين العام والخاص أن تجعل الذكاء الاصطناعي التوليدي عامل تمكين أساسي يساعد في تنمية الأعمال، وزيادة الإنفاق على الابتكار، والإدارة السليمة للمخاطر.»

مقالات مشابهة

  • نصائح كاسبرسكي للحد من مخاطر الذكاء الاصطناعي التوليدي في بيئة العمل
  • حوكمة البيانات ركيزة لتمكين أدوات الذكاء الاصطناعي
  • حزب "المصريين": توجيهات الرئيس بدراسة علوم تكنولوجيا المستقبل يعكس اهتمامه بدعم قدرات الأجيال القادمة
  • «المصريين»: توجيهات الرئيس بدراسة التكنولوجيا تعزز قدرات الأمن القومي
  • السيسي: سنكون من أوائل الدول التي تعالج المياه بأحدث وسائل التكنولوجيا
  • حلقة عن الذكاء الاصطناعي بتعليمية الداخلية
  • هذه الدول الخليجية تريد أن تصبح قوى عظمى في الذكاء الاصطناعي.. ما هي؟
  • وزير الداخلية: استحدثنا معهد تدريب تخصصي لنظم التكنولوجيا الأمنية وتطبيقات الذكاء الاصطناعي
  • شركات التكنولوجيا الكبرى تصعد حدة المنافسة على الذكاء الاصطناعي
  • انطلاق منتدى "دور الذكاء الاصطناعي في تحقيق التنمية المستدامة".. اليوم