المغاربة في الرتبة الثانية عالميا من حيث استخدام ChatGPT
تاريخ النشر: 22nd, August 2024 GMT
أظهر تصنيف أمريكي جديد أن المغاربة من أكثر البلدان استخداما لتطبيق الذكاء الاصطناعي « ChatGPT ».
ويبين التصنيف الذي نشر نتائجه موقع « فيزيال كابيتاليست » احتلال المغرب الرتبة الثانية في استخدام التطبيق، بنسبة 38 في المائة، في حين جاءت الهند في المركز الأول بنسبة 45 في المائة.
وجاء التقرير بعد مرور سنتين على إطلاق شركة OpenAI للتطبيق المذكور، والذي شكل ثورة في الذكاء الاصطناعي التوليدي، كما تسبب انتشاره الواسع عبر العالم في انطلاق « سباق تسلح الذكاء الاصطناعي »، يقول التقرير، بين ثلاث من أكبر الشركات التقنية في العالم.
وأوضح الموقع أنه اعتمد في هذا التصنيف على نتائج الاستطلاع الذي أنجزته « مجموعة بوسطن للاستشارات » برسم عام 2023.
وبحسب معطيات التصنيف، فإن « البلدان الأصغر سنا حسب متوسط العمر هي التي تميل بشكل أكبر إلى استخدام تطبيق « شات جي بي تي »، مرجحة أن « يكون ذلك بسبب السكان الأصغر سنا والأكثر دراية بالتكنولوجيا ».
وجاء المغرب متقدما على عدد من البلدان الغربية، منها الولايات المتحدة الأمريكية واليابان، والصين وغيرها.
المصدر: اليوم 24
إقرأ أيضاً:
الكرسي الرسولي: الذكاء الاصطناعي فرصة لكن الإنسان يخاطر بأن يصبح عبدا للآلات
تابع أحدث الأخبار عبر تطبيق
تشكل تحذيرات البابا فرنسيس حول الذكاء الاصطناعي في السنوات الأخيرة الخطوط العريضة لمذكرة "Antiqua et nova"، وهي مذكرة حول العلاقة بين الذكاء الاصطناعي والذكاء البشري الناتجة عن التفكير المتبادل بين دائرة عقيدة الإيمان ودائرة الثقافة والتربية وثيقة موجهة إلى جميع المدعوين إلى التربية ونقل الإيمان، وإنما أيضًا إلى الذين يشاركون في الحاجة إلى تطور علمي وتكنولوجي "في خدمة الإنسان والخير العام".
في ١١٧ فقرة، تسلط المذكرة "Antiqua et nova"، الضوء على تحديات وفرص تطور الذكاء الاصطناعي في مجالات التعليم والاقتصاد والعمل والصحة والعلاقات وسياقات الحرب. في هذا المجال الأخير، على سبيل المثال، يمكن أن تؤدي إمكانات الذكاء الاصطناعي إلى زيادة موارد الحرب "إلى ما هو أبعد من متناول البشر"، الأمر الذي يسرِّع "سباق تسلح مزعزع للاستقرار مع عواقب مدمرة لحقوق الإنسان" .
بشكل مفصَّل، تسرد الوثيقة مخاطر الذكاء الاصطناعي وإنما أيضًا التقدم الذي يشجعه باعتباره "جزءًا من تعاون" الإنسان مع الله ولكنها مع ذلك، لا تخفي القلق الذي يرافق جميع الابتكارات التي لا يمكن التنبؤ بآثارها تم تخصيص عدة فقرات من المذكرة للتمييز بين الذكاء الاصطناعي والذكاء البشري. ومن "المُضلِّل"، كما نقرأ، استخدام كلمة "ذكاء" في الإشارة إلى الذكاء الاصطناعي لأنّه ليس "شكلاً اصطناعيًا من أشكال الذكاء"، بل هو "أحد منتجاته"
ومثل أي منتج من منتجات الإبداع البشري، يمكن للذكاء الاصطناعي أيضًا أن يكون موجهًا نحو "غايات إيجابية أو سلبية". يمكن للذكاء الاصطناعي أن يقدم "ابتكارات مهمة"ولكنه أيضًا قد يؤدي إلى تفاقم حالات التمييز والفقر والفجوة الرقمية وعدم المساواة الاجتماعية ما يثير "المخاوف الأخلاقية" هو حقيقة أن "الجزء الأكبر من السلطة على التطبيقات الرئيسية للذكاء الاصطناعي تتركز في أيدي عدد قليل من الشركات القوية" ، وهكذا ينتهي الأمر بالتلاعب بهذه التكنولوجيا من أجل تحقيق "مكاسب شخصية أو مكاسب الشركات" .
بالإشارة إلى الحروب، تسلّط المذكرة الضوء على أن أنظمة الأسلحة المستقلة والفتاكة القادرة على "تحديد الأهداف وضربها بدون تدخل بشري مباشر" هي "سبب خطير للقلق الأخلاقي" في الواقع، دعا البابا فرنسيس إلى حظر استخدامها لأنها تشكل تهديدًا حقيقيًا "لبقاء البشرية أو مناطق بأكملها" إن هذه التقنيات.
كما تُندِّد المذكرة "Antiqua et nova"، "تمنح الحرب قوة تدميرية لا يمكن السيطرة عليها وتؤثر على العديد من المدنيين الأبرياء، بدون أن تستثني حتى الأطفال". وفيما يتعلق بالعلاقات الإنسانية، تشير الوثيقة إلى أن الذكاء الاصطناعي يمكنه أن يقود إلى "عزلة ضارة" وأن "تشبيه الذكاء الاصطناعي بالإنسان" يطرح مشاكل لنمو الأطفال وأن تمثيل الذكاء الاصطناعي كشخص هو "انتهاك أخلاقي خطير" إذا ما استخدم ذلك لأغراض احتيالية. تمامًا كما أن استخدام الذكاء الاصطناعي للخداع في سياقات مثل التعليم والعلاقات والجنس هو أمر "غير أخلاقي ويتطلب يقظة حذرة" .
هذه اليقظة عينها تُطلب في المجال الاقتصادي والمالي. في مجال العمل بشكل خاص، يمكننا أن نلاحظ أنه في حين أن الذكاء الاصطناعي لديه "إمكانية" زيادة المهارات والإنتاجية من ناحية، يمكنه من ناحية أخرى أن "ينقص من مهارات العمال، ويخضعهم للمراقبة الآلية ويحيلهم إلى وظائف جامدة ومتكررة" .
كذلك تخصص المذكرة "Antiqua et nova"، مساحة واسعة لمسألة الرعاية الصحية. مع التذكير بالإمكانات الهائلة في مختلف التطبيقات في المجال الطبي، وتحذِّر المذكرة في هذا السياق من أنه إذا حل الذكاء الاصطناعي محل العلاقة بين الطبيب والمريض، فسيخاطر "بتفاقم" الوحدة التي غالبًا ما ترافق المرض. كما تنبّه المذكرة أيضًا من تعزيز "طبٍّ للأغنياء"، يستفيد فيه الأشخاص الذين لديهم إمكانيات مالية من الأدوات المتقدمة، بينما لا يستطيع الآخرون الحصول حتى على الخدمات الأساسية.
وتبرز المخاطر أيضًا في مجال التعليم. إذا تم استخدام الذكاء الاصطناعي بحذر، يمكن للذكاء الاصطناعي أن يحسن الحصول على التعليم ويقدم "إجابات فورية" للطلاب وتكمن المشكلة في أن العديد من البرامج "لا تقدم سوى إجابات بدلاً من أن تدفع الطلاب إلى البحث عنها بأنفسهم، أو كتابة النصوص بأنفسهم"؛ الأمر الذي يؤدي إلى عدم تطوير فكرٍ نقدي ناهيك عن كمية "المعلومات المشوهة أو المفبركة" و"الأخبار المزيفة" التي يمكن أن تولدها بعض البرامج وفيما يتعلق بموضوع الأخبار المزيّفة، تحذر المذكّرة من الخطر الجسيم المتمثل في "توليد الذكاء الاصطناعي لمحتوى تم التلاعب به ومعلومات كاذبة" ، والتي يتم نشرها بعد ذلك "للخداع أو الإضرار".
وجاء النداء في هذا السياق "للحرص دائمًا على التحقق من صحة" ما يتم نشره وتجنب "مشاركة الكلمات والصور التي تحط من قدر الإنسان"، واستثناء "ما يؤجج الكراهية والتعصب" أو يحط من "حميمية الجنس".
فيما يتعلق بالخصوصية والرقابة، تشير المذكرة إلى أن بعض أنواع البيانات يمكنها أن تصل إلى حد "المساس حتى بضمير الشخص" ، مع خطر أن يصبح كل شيء "نوعًا من المشاهد التي يمكن التجسس عليها" كما "يمكن استخدام المراقبة الرقمية لممارسة السيطرة على حياة المؤمنين وتعبيرهم عن إيمانهم" أما فيما يتعلق بموضوع الخليقة، فتُعتبر تطبيقات الذكاء الاصطناعي لتحسين العلاقة مع البيت المشترك "واعدة". في الوقت عينه، تتطلب نماذج الذكاء الاصطناعي الحالية "كميات هائلة من الطاقة والمياه وتساهم بشكل كبير في انبعاثات ثاني أكسيد الكربون، فضلاً عن كونها كثيفة الاستخدام للموارد".
وأخيراً، تحذر المذكرة من خطر أن يصبح البشر "عبيداً لعملهم". ومن هنا تأتي التوصية: "ينبغي استخدام الذكاء الاصطناعي فقط كأداة مكملة للذكاء البشري وليس بديلاً لغناه".