الذكاء الإصطناعي هو حديث العالم، خصوصا تطبيقات الدردشة القادرة على التجاوب معك. لكن ألا يمثل هذا خطرا كبيرا؟
الدردشة مع تطبيقات الذكاء الإصطناعي هي الترند حالياً في عالم التكنولوجيا والتقنية، خصوصاً عندما يتعلّق الأمر بالنسخة المطورة من "شات جي بي تي- 4" التي تم إطلاقها حديثاً، والتي توفر خصائص جديدة تتعدى بكثير النسخة السابقة.

هذا وإن كان التطوّر الكبير في الذكاء الإصطناعي يجذب الإهتمام حاليا لما يتمتع به من مقومات وقدرات فائقه ، وخصوصاً قدرته على تقديم أجوبة فيها نسب عالية من الدقة، كذلك قدرته على القيام بعدد من المهام البشرية في العديد من المهن، ومن ذلك على سبيا المثال لا الحصر مهام الكتابة والترجمة والمحاسبة وجمع المعلومات والتحليل المالي وغير ذلك، ولكنه على الجانب الآخر يثير مخاوف كبيرة تهدّد الكثير من الناس ليس فقط بفقدان وظائفهم ولكن شتى جوانب حياتهم اليومية وقد وصل الأمر لفقدان شخص حياته بالانتحار من أثر تعامله مع أحد هذه البرامج.
خلال العقود الماضية كانت المخاطر التي دأب الكثيرون على التحذير منها هي الانفجار السكاني، التلوث البيئي ونقص الموارد الطبيعية. أما اليوم ومع التطور التكنولوجى الهائل في شتى المجالات ومع تعدد تطبيقاته، فقد تحول الأمر إلى أخطار أخرى تمثل تهديداً وجودياً؛ روبوتات سيصل ذكاؤها إلى درجة تسمح لها بالتفوق على البشر، خاصة مع قدرات الذكاء الإصطناعي اللامحدوده، أو فيروسات حاسوبية مدمرة قد توقف الإنترنت عن العمل. الذكاء الإصطناعي هو الموضة الجديدة التي يدور الحديث حولها الأن في كل المجالات، في أجهزة الهواتف الذكية، في الأجهزة المنزلية، في التلفزيونات، في الأسلحة، وأيضاً في السيارت الذكية، التي يفترض أن تنتشر قريباً في مدن العالم. القلق الحقيقي، وفق بعض الخبراء، هو أنه وبحلول العام 2075، سـتصل آلات مزودة بقدرات خاصة إلى مستويات ذكاء تفوق مستوى الإنسان بكثير مما يمكنها من اتخاذ قرارات بشكل ذاتي، من دون العودة إلى أي مرجعية بشرية.
لذلك وجب التحذير من أن هذا التطور المتسارع بهذه الوتيرة والإفرط فى تطوير برامج وتقنيات الذكاء الإصطناعى دون ضوابط حقيقية أو أنظمة حماية سيؤثر سلبًا على الجنس البشري وسيؤدي في لحظة ما إلى أضرار جسيمة في عدة جوانب حساسة في حياته. فقدرة الأجهزة التقنية على اتخاذ آلاف القرارات المعقدة في الثانية الواحدة يمكن استخدامها إما فى منفعة أو إيذاء الناس، ويعتمد ذلك على الشخص نفسة الذي يقوم بتصميم النظام.
كان مثيراً للإهتمام وجود أسماء مهتمة كثيرة بالتطور التكنولوجي، كـ إيلون ماسك يدعو إلى  التوقف لمدة ستة أشهر عن تطوير أنظمة أقوى من روبوت الدردشة (شات جي.بي.تي-4) الذي أطلقته شركة أوبن إيه.آي في الآونة الأخيرة، مشيرا إلى المخاطر المحتملة لمثل هذه التطبيقات على المجتمع. وفى نفس الوقت فقد طالب كثير من الخبراء فى المجال بوقف موقّت لعمليات تطوير برامج الذكاء الإصطناعي إلى حين إعتماد أنظمة حماية، تتيح تنظيم هذه العمليات ومراقبتها وتحليل المعلومات الواردة إليها، وكذلك معالجة ما قد ينجم عن إستخدامها من إختلالات.
ونحن هنا وإن كنا ندرك أهمية التطور التكنولوجى فإننا فى ذات الوقت نتسأل عن جدوى تطوير "عقول غير بشرية قد تفوقنا عدداً وتتفوق علينا في النهاية وتحل محلنا "؟ وعن خطر المجازفة بفقدان السيطرة على الحضارة البشرية.
هل يجب أن نسمح للآلات بذلك؟

المصدر: صدى البلد

كلمات دلالية: الذكاء الإصطناعي تطبيقات الذكاء الإصطناعي عالم التكنولوجيا المزيد الذکاء الإصطناعی

إقرأ أيضاً:

مخاطر الذكاء الاصطناعي على التعليم والبحث العلمي

يحظى موضوع الذكاء الاصطناعي باهتمام واسع عبر العالم في المناقشات والمنتديات والمجادلات حول الموضوع. ولقد سبق أن تناولت هذا الموضوع في مقالين بهذه الجريدة الرصينة: أحدهما عن الذكاء الاصطناعي والإبداع، والآخر عن الذكاء الاصطناعي والترجمة. ولكن هذا الموضوع يحتمل المزيد من التأملات دائمًا، إذ إن له أبعادًا كثيرةً لا حصر لها؛ ولذلك فإنني أريد في هذا المقال التنويه إلى تأثير الذكاء الاصطناعي على العملية التعليمية والبحث العلمي.

وقد يبدو أن استخدام كلمة «تأثير» أفضل من استخدام كلمة «مخاطر» الواردة في عنوان هذا المقال؛ لأن هذه الكلمة الأخيرة قد لا تبدو محايدة، وإنما تنطوي على حكم مسبق يتخذ موقفًا متحيزًا ضد تقنيات الذكاء الاصطناعي. وهذا تفسير غير صحيح؛ لأن كلمة «مخاطر» تعني أن هناك طريقًا نسير عليه -أو ينبغي أن نسير فيه- ولكنه يكون محفوفًا بالمخاطر التي ينبغي أن ندركها لكي يمكن اجتنابها. فلا مراء في أن الذكاء الاصطناعي يمثل ثورة كبرى في المعرفة البشرية.

هذه الثورة المعرفية تتمثل في القدرة الهائلة للآلة على توفير بيانات ضخمة في أي مجال معرفي، بل يمكن لبرامج هذه الآلة أن تؤلف نصوصًا أو موضوعات بحثية أو تصمم ابتكارات ومخترعات باستخدام هذه البيانات.

ولقد أثمرت هذه الثورة المعرفية بوجه خاص في مجال تطبيقات العلوم الدقيقة، وعلى رأسها الرياضيات البحتة التي تمتد جذورها في النهاية في المنطق الرياضي، كما لاحظ ذلك برتراند رسل بشكل مدهش في مرحلة مبكرة للغاية في كتابه أصول الرياضيات!

ولا شك أيضًا في أن الذكاء الاصطناعي له استخدامات مثمرة في مجال العملية التعليمية، إذ إنه يسهِّل على المعلم والطالب معًا بلوغ المعلومات المهمة والحديثة في مجال الدراسة، ويقدِّم المعلومات للطلبة بطريقة شيقة ويشجعهم على البحث والاستكشاف بأنفسهم.

وهنا على وجه التحديد مكمن المشكلة، فعندما نقول: «إن الذكاء الاصطناعي يشجع الطلبة على البحث والاستكشاف بأنفسهم»، فإننا ينبغي أن نأخذ هذه العبارة بمعناها الدقيق، وهو أن الذكاء الاصطناعي هو ذكاء الآلة، والآلة دائمًا هي أداة للاستخدام، وبالتالي فإنها لا يمكن أن تكون بديلًا لدور المستخدِم الذي يجب أن يقوم بنفسه بالبحث والاستكشاف. وهذا يعني أن سوء استخدام الذكاء الاصطناعي والتعويل عليه في عملية التعلم، سيؤدي إلى القضاء على روح المبادرة والاكتشاف، وسيحول دون تعلم مهارات التفكير الناقد critical thinking وتنميتها من خلال عملية التفاعل المباشر بين الطلبة والمعلم. وتلك كلها مخاطر حقيقية على التعليم.

ولا تقل عن ذلك مخاطر الذكاء الاصطناعي في البحث العلمي الذي يصبح تكريسًا لسوء استخدام هذا الذكاء في مراحل التعليم المختلفة. بل إن المخاطر هنا تصبح أشد وأكثر ضررًا؛ لأنها تتعلق بتكوين باحثين وأساتذة يُرَاد لهم أو يُرجى منهم أن يكونوا علماء حقيقيين في مجالاتهم البحثية المتنوعة. ولعل أشد هذه المخاطر هو شيوع السرقات العلمية من خلال برامج الذكاء الاصطناعي التي تقوم بعملية التأليف من خلال كتابات ودراسات وبحوث منشورة؛ وهو ما قد يشجع الباحث على استخدام المادة المُقدّمة له باعتبارها من تأليفه ودون ذكر للمصادر الأصلية التي استُمدت منها هذه المادة.

حقًّا أن الذكاء الاصطناعي نفسه قد ابتكر برامج لاكتشاف السرقات العلمية (لعل أشهرها برنامج Turnitin)؛ ولكن هذا لا يمنع الباحثين الذين يفتقرون إلى أخلاقيات البحث العلمي من التحايل على مثل هذه البرامج من خلال التمويه، وذلك بتطعيم البحث بمادة موثقة من مصادرها، بحيث يبدو البحث مقبولًا في الحد الأدنى من نسبة الاقتباسات المشروعة! وهذا أمر لا ينتمي إلى البحث العلمي ولا إلى الإبداع والابتكار.

وبصرف النظر عن مسألة السرقات العلمية، فإن الاعتماد على الذكاء الاصطناعي في البحث العلمي له مخاطر أخرى تتمثل في أن المادة المقتبَسة كثيرًا ما تكون مشوهة أو غير دقيقة، وهذا يتبدى -على سبيل المثال- في حالة النصوص المقتبسة المترجَمة التي تقع في أخطاء فادحة وتقدم نصًا مشوهًا لا يفهم مقاصد المؤلف الأصلي، وهذا ما فصلت القول فيه في مقال سابق. وفضلًا عن ذلك، فإن برامج الذكاء الاصطناعي لا تخلو من التحيز (بما في ذلك التحيز السياسي)؛ ببساطة لأنها مبرمَجة من خلال البشر الذين لا يخلون من التحيز في معتقداتهم، وهذا ما يُعرف باسم «الخوارزميات المتحيزة» biased algorithms.

ما يُستفاد من هذا كله هو أن الذكاء الاصطناعي ينبغي الاستعانة به في إطار الوعي بمخاطره؛ ومن ثم بما ينبغي اجتنابه، ولعل هذا ما يمكن تسميته «بأخلاقيات الذكاء الاصطناعي»، وهي أخلاقيات ينبغي أن تَحكم برامج هذا الذكاء مثلما تَحكم المستخدم نفسه.

مقالات مشابهة

  • “سي القابضة” و”ميكروبوليس” تطوران بنية الذكاء الاصطناعي لـ “المدينة المستدامة 2.0”
  • ويكيبيديا تدخل عصر الذكاء الاصطناعي دون الاستغناء عن المحررين
  • الذكاء الاصطناعي وصناعة السينما ندوة بالإسكندرية للفيلم القصير| تفاصيل
  • خبراء يحذِّرون: الذكاء الاصطناعي يجعل البشر أغبياء
  • مخاطر الذكاء الاصطناعي على التعليم والبحث العلمي
  • خالد بن محمد بن زايد يؤكد أهمية توظيف الذكاء الاصطناعي في الابتكار واستشراف المستقبل
  • برادة يواجه العنف المدرسي بكاميرات الذكاء الإصطناعي
  • كِتابة جِنيّ المصباح تجارب روائية ولَّدها الذكاء الاصطناعي
  • سؤال التلقي والتفاعل الجمالي - الذكاء الاصطناعي يكتب .. فهل يهم مَن المؤلف أم كيف نقرأ؟
  • كتَّاب عرب: لن نترك الذكاء الاصطناعي يأخذ مكاننا!