تابع أحدث الأخبار عبر تطبيق

شارك المستشار الدكتور حنفي جبالي رئيس مجلس النواب، في أعمال المؤتمر السادس للبرلمان العربي ورؤساء المجالس والبرلمانات العربية، الذي عُقد في مقر جامعة الدول العربية بالقاهرة، وألقى كلمة حول موضوع المناقشة العامة للمؤتمر تحت عنوان "رؤية برلمانية لتحقيق التوظيف الآمن للذكاء الاصطناعي ".



وفي مستهل الكلمة، جدد المستشار الدكتور حنفي جبالي رئيس مجلس النواب العزم الأكيد مع البرلمانات العربية على دعم صمود الشعب الفلسطيني الشقيق ورفع الظلم التاريخي الواقع عليه باستمرارالعدوان الاسرائيلي الغاشم والذي يرقى لمستوى الإبادة الجماعية في تحد سافر للقيم والأعراف الانسانية الدولية ومحاولة مُمنهجة لتصفية القضية الفلسطينية التي تمر بمنعطف خطير يحمل في طياته تهديدات نوعية وجسيمة مُمتدة الأثر والتداعيات.
وأكد المستشار الدكتور حنفي جبالي، أن التطور الهائل المُصاحب لاستخدام التكنولوجيا، خاصة في مجال الذكاء الاصطناعي، يطرح فرصاً ومنافع عديدة تُبشر بتحول جذري في الحياة الاقتصادية إلا أنه في الوقت ذاته يحمل في طياته تحديات وتهديدات جسيمة ينبغى أخذها في الاعتبار، مؤكداً الضرورة القصوى والحثيثة لحوكمة استخدامات الذكاء الاصطناعي وتطوير طرق آمنة وموثوقة له قابلة للضبط بحيث تتماشى مع القيم الانسانية للمجتمعات.
واستعرض رئيس مجلس النواب في كلمته جهود الدولة المصرية في التفاعل مع مُعطيات العصر الرقمي وفي مقدمتها استخدامات الذكاء الاصطناعي، حيث أنشأت المجلس الوطني للذكاء الاصطناعي بهدف تهيئة البيئة التشريعية والقانونية وتقديم التوصيات ذات الصلة بالأطر الفنية والقانونية والاقتصادية لاستخداماته، بالإضافة لتحديد التطبيقات التي تُقدم حلولاً وخدمات ذكية وآمنة ومُستدامة.
وأشار المستشار الدكتور حنفي جبالي إلى أن الدولة المصرية أطلقت أيضاً الميثاق المصري للذكاء الإصطناعي المسئول عن بلورة الاطر التنظيمية للاستخدام الأخلاقي والمسئول للتقنيات الذكية، بحيث تتوافق مع الأسس الأخلاقية ومبادئ احترام حقوق الانسان وبما يتوافق مع طبيعة وأخلاقيات المجتمع المصري بما يضمن إدارة وتطوير ونشر أنظمة الذكاء الاصطناعي في الدولة واستخدامها بشكل واعي ومسئول.
وفي ختام كلمته، دعا المستشار الدكتور حنفي جبالي البرلمانات العربية إلى صياغة ضوابط تشريعية وقانونية كفيلة بتنظيم استخدام تقنيات الذكاء الاصطناعي، مؤكداً ضرورة أن تكون الدول العربية في صدارة الإسهام العالمي في هذا المجال بما لديها من موارد وطاقات وإبداعية مع الإلمام بالأنشطة الإلكترونية غير الشرعية وتعزيز سبل مواجهتها بما يتماشي مع قيم المجتمعات العربية وقضايا سيادة القانون.

439446893_1708883876307145_6995451763767771172_n 435297270_408127455323396_3770570164561170670_n 435134747_1375418556506756_7980047900606309143_n 439780405_7395501843870901_8557440682319846814_n

المصدر: البوابة نيوز

كلمات دلالية: المستشار الدکتور حنفی جبالی الذکاء الاصطناعی

إقرأ أيضاً:

مخاطر الذكاء الاصطناعي على التعليم والبحث العلمي

يحظى موضوع الذكاء الاصطناعي باهتمام واسع عبر العالم في المناقشات والمنتديات والمجادلات حول الموضوع. ولقد سبق أن تناولت هذا الموضوع في مقالين بهذه الجريدة الرصينة: أحدهما عن الذكاء الاصطناعي والإبداع، والآخر عن الذكاء الاصطناعي والترجمة. ولكن هذا الموضوع يحتمل المزيد من التأملات دائمًا، إذ إن له أبعادًا كثيرةً لا حصر لها؛ ولذلك فإنني أريد في هذا المقال التنويه إلى تأثير الذكاء الاصطناعي على العملية التعليمية والبحث العلمي.

وقد يبدو أن استخدام كلمة «تأثير» أفضل من استخدام كلمة «مخاطر» الواردة في عنوان هذا المقال؛ لأن هذه الكلمة الأخيرة قد لا تبدو محايدة، وإنما تنطوي على حكم مسبق يتخذ موقفًا متحيزًا ضد تقنيات الذكاء الاصطناعي. وهذا تفسير غير صحيح؛ لأن كلمة «مخاطر» تعني أن هناك طريقًا نسير عليه -أو ينبغي أن نسير فيه- ولكنه يكون محفوفًا بالمخاطر التي ينبغي أن ندركها لكي يمكن اجتنابها. فلا مراء في أن الذكاء الاصطناعي يمثل ثورة كبرى في المعرفة البشرية.

هذه الثورة المعرفية تتمثل في القدرة الهائلة للآلة على توفير بيانات ضخمة في أي مجال معرفي، بل يمكن لبرامج هذه الآلة أن تؤلف نصوصًا أو موضوعات بحثية أو تصمم ابتكارات ومخترعات باستخدام هذه البيانات.

ولقد أثمرت هذه الثورة المعرفية بوجه خاص في مجال تطبيقات العلوم الدقيقة، وعلى رأسها الرياضيات البحتة التي تمتد جذورها في النهاية في المنطق الرياضي، كما لاحظ ذلك برتراند رسل بشكل مدهش في مرحلة مبكرة للغاية في كتابه أصول الرياضيات!

ولا شك أيضًا في أن الذكاء الاصطناعي له استخدامات مثمرة في مجال العملية التعليمية، إذ إنه يسهِّل على المعلم والطالب معًا بلوغ المعلومات المهمة والحديثة في مجال الدراسة، ويقدِّم المعلومات للطلبة بطريقة شيقة ويشجعهم على البحث والاستكشاف بأنفسهم.

وهنا على وجه التحديد مكمن المشكلة، فعندما نقول: «إن الذكاء الاصطناعي يشجع الطلبة على البحث والاستكشاف بأنفسهم»، فإننا ينبغي أن نأخذ هذه العبارة بمعناها الدقيق، وهو أن الذكاء الاصطناعي هو ذكاء الآلة، والآلة دائمًا هي أداة للاستخدام، وبالتالي فإنها لا يمكن أن تكون بديلًا لدور المستخدِم الذي يجب أن يقوم بنفسه بالبحث والاستكشاف. وهذا يعني أن سوء استخدام الذكاء الاصطناعي والتعويل عليه في عملية التعلم، سيؤدي إلى القضاء على روح المبادرة والاكتشاف، وسيحول دون تعلم مهارات التفكير الناقد critical thinking وتنميتها من خلال عملية التفاعل المباشر بين الطلبة والمعلم. وتلك كلها مخاطر حقيقية على التعليم.

ولا تقل عن ذلك مخاطر الذكاء الاصطناعي في البحث العلمي الذي يصبح تكريسًا لسوء استخدام هذا الذكاء في مراحل التعليم المختلفة. بل إن المخاطر هنا تصبح أشد وأكثر ضررًا؛ لأنها تتعلق بتكوين باحثين وأساتذة يُرَاد لهم أو يُرجى منهم أن يكونوا علماء حقيقيين في مجالاتهم البحثية المتنوعة. ولعل أشد هذه المخاطر هو شيوع السرقات العلمية من خلال برامج الذكاء الاصطناعي التي تقوم بعملية التأليف من خلال كتابات ودراسات وبحوث منشورة؛ وهو ما قد يشجع الباحث على استخدام المادة المُقدّمة له باعتبارها من تأليفه ودون ذكر للمصادر الأصلية التي استُمدت منها هذه المادة.

حقًّا أن الذكاء الاصطناعي نفسه قد ابتكر برامج لاكتشاف السرقات العلمية (لعل أشهرها برنامج Turnitin)؛ ولكن هذا لا يمنع الباحثين الذين يفتقرون إلى أخلاقيات البحث العلمي من التحايل على مثل هذه البرامج من خلال التمويه، وذلك بتطعيم البحث بمادة موثقة من مصادرها، بحيث يبدو البحث مقبولًا في الحد الأدنى من نسبة الاقتباسات المشروعة! وهذا أمر لا ينتمي إلى البحث العلمي ولا إلى الإبداع والابتكار.

وبصرف النظر عن مسألة السرقات العلمية، فإن الاعتماد على الذكاء الاصطناعي في البحث العلمي له مخاطر أخرى تتمثل في أن المادة المقتبَسة كثيرًا ما تكون مشوهة أو غير دقيقة، وهذا يتبدى -على سبيل المثال- في حالة النصوص المقتبسة المترجَمة التي تقع في أخطاء فادحة وتقدم نصًا مشوهًا لا يفهم مقاصد المؤلف الأصلي، وهذا ما فصلت القول فيه في مقال سابق. وفضلًا عن ذلك، فإن برامج الذكاء الاصطناعي لا تخلو من التحيز (بما في ذلك التحيز السياسي)؛ ببساطة لأنها مبرمَجة من خلال البشر الذين لا يخلون من التحيز في معتقداتهم، وهذا ما يُعرف باسم «الخوارزميات المتحيزة» biased algorithms.

ما يُستفاد من هذا كله هو أن الذكاء الاصطناعي ينبغي الاستعانة به في إطار الوعي بمخاطره؛ ومن ثم بما ينبغي اجتنابه، ولعل هذا ما يمكن تسميته «بأخلاقيات الذكاء الاصطناعي»، وهي أخلاقيات ينبغي أن تَحكم برامج هذا الذكاء مثلما تَحكم المستخدم نفسه.

مقالات مشابهة

  • وزير الثقافة يدعو إلى تحرك دولي لوضع أطر تنظيمية لحماية التراث من مخاطر الذكاء الاصطناعي
  • الدكتور علي بن تميم لصدى البلد: لغتنا العربية عظيمة.. ومعرض أبوظبي للكتاب سيكون الأجمل
  • تقني يوضح كيف يستفيد الكفيف من تقنيات الذكاء الاصطناعي؟ ..فيديو
  • ويكيبيديا تدخل عصر الذكاء الاصطناعي دون الاستغناء عن المحررين
  • رؤى أكاديمية تناقش تأثير الذكاء الاصطناعي في صناعة المحتوى الثقافي والفني
  • رؤى أكاديمية وفنية تناقش تأثير الذكاء الاصطناعي في صناعة المحتوى الثقافي والفني
  • جوجل تتيح إنشاء البودكاست باللغة العربية اعتمادا على الذكاء الاصطناعي
  • خبراء يحذِّرون: الذكاء الاصطناعي يجعل البشر أغبياء
  • ذكاء اصطناعي بلا ضوابط.. أثار جدلاً أخلاقياً وقلقاً دولياً:»نيويورك تايمز«: إسرائيل حوّلت حرب غزة إلى مختبر للذكاء الاصطناعي
  • مخاطر الذكاء الاصطناعي على التعليم والبحث العلمي