الثورة /
منذ إطلاق ChatGPT من OpenAI في نوفمبر 2022، أصبح الذكاء الاصطناعي التوليدي موضوعًا ساخنًا في المناقشات التكنولوجية، واكتسب تغطية واسعة النطاق لقدراته.
ولكن على الرغم من الضجيج المحيط بتقنيات الذكاء الاصطناعي الجديدة، كشفت دراسة حديثة أن قلة من الناس يستخدمون أدوات الذكاء الاصطناعي مثل ChatGPT بانتظام.


وشمل الاستطلاع، الذي أجراه معهد رويترز وجامعة أكسفورد، أكثر من 12 ألف فرد في ستة دول، بما في ذلك فرنسا والدنمارك والمملكة المتحدة، لقياس المواقف تجاه استخدام نماذج GenAI.
تظهر النتائج أن نسبة ضئيلة من الأشخاص يستخدمون ChatGPT يوميًا، مع وجود عدد أقل من الأشخاص الذين يستخدمون أدوات الذكاء الاصطناعي الأخرى مثل Google Gemini وMicrosoft Copilot.
الإلمام العام بأدوات الذكاء الاصطناعي
أفاد غالبية المشاركين أنهم سمعوا عن بعض أدوات الذكاء الاصطناعي الشائعة.
وبرز ChatGPT باعتباره التطبيق الأكثر شهرة، حيث أشار 61% من المشاركين من الدنمارك و58% من المملكة المتحدة إلى أنهم على علم به.
ومع ذلك، فإن الأدوات المماثلة مثل Google Gemini وMicrosoft Copilot أقل شهرة، حيث لا يعرفها سوى حوالي 15 إلى 25% من الأشخاص.
ووجد الاستطلاع أيضًا أن أدوات الذكاء الاصطناعي الأكثر تخصصًا، مثل Midjourney وPerplexity، لا تحظى بتقدير كبير بين عامة الناس.
كما لم يكن من المرجح أن يكون الناس على دراية بمنتجات الذكاء الاصطناعي التي تنشأ في بلدانهم مقارنة بالأدوات المشهورة عالميًا مثل ChatGPT.
على سبيل المثال، أفاد ثلاثة في المائة فقط من المشاركين في فرنسا أنهم على علم بشركة ميسترال، وهي شركة متخصصة في الذكاء الاصطناعي ومقرها فرنسا.
ووجد الاستطلاع أنه في حين أن أغلبية كبيرة من الناس قد سمعوا عن أدوات الذكاء الاصطناعي التي حظيت بتغطية إعلامية واسعة النطاق، إلا أن عددًا أقل من الأشخاص أبلغوا عن استخدامها فعليًا، ويظل الاستخدام المنتظم نادرًا.
كيف يستخدم الناس أدوات الذكاء الاصطناعي؟
ChatGPT هي أداة الذكاء الاصطناعي الأكثر استخدامًا على نطاق واسع بين الأشخاص الذين شملهم الاستطلاع في ستة بلدان، وهي أكثر انتشارًا مرتين أو ثلاث مرات من نماذج اللغات الكبيرة الأخرى (LLMs) مثل Gemini من Google وMicrosoft Copilot.
ومع ذلك، فإن وتيرة الاستخدام ليست عالية بشكل خاص.
في فرنسا والمملكة المتحدة، أفاد 2% فقط من المشاركين أنهم يستخدمون ChatGPT يوميًا، مع استخدام عدد أقل لأدوات الذكاء الاصطناعي الأخرى؛ في الواقع، لم يبلغ أحد في المملكة المتحدة عن استخدام Google Gemini يوميًا.
ذكر معظم المشاركين الذين جربوا أدوات الذكاء الاصطناعي التوليدية أنهم استخدموها مرة أو مرتين فقط منذ إطلاقها.
وفي الوقت نفسه، تظهر الولايات المتحدة معدلات استخدام أعلى لبرامج الماجستير في القانون، حيث يستخدم سبعة في المائة من الأشخاص ChatGPT يوميًا و11 في المائة أسبوعيًا.
وكشفت الدراسة أن الاختلاف الأكثر أهمية في استخدام أدوات الذكاء الاصطناعي قد لوحظ بين مختلف الفئات العمرية.
كان الأفراد الأصغر سنًا أكثر عرضة لاعتماد أدوات الذكاء الاصطناعي واستخدامها بشكل متكرر.
وفي البلدان الستة التي شملتها الدراسة، أفاد 56% من الأشخاص الذين تتراوح أعمارهم بين 18 و24 عامًا و43% ممن تتراوح أعمارهم بين 25 و34 عامًا أنهم استخدموا الذكاء الاصطناعي التوليدي مرة واحدة على الأقل.
وفي المقابل، استخدم حوالي 16% فقط من الأشخاص الذين تبلغ أعمارهم 55 عامًا أو أكثر هذه الأدوات.
وعلى الرغم من ارتفاع معدلات الوعي والاستخدام بين السكان الأصغر سنا، فإن معدل الاستخدام الإجمالي لا يزال منخفضا.
في حين أفاد معظم المشاركين في الاستطلاع أنهم يستخدمون الذكاء الاصطناعي بشكل أساسي في حياتهم الشخصية وليس لأغراض العمل أو الأكاديمية، إلا أن الاستخدامات المحددة للذكاء الاصطناعي تباينت.
وفي جميع البلدان التي شملها الاستطلاع، استخدم 24% من المشاركين الذكاء الاصطناعي التوليدي لجمع المعلومات، بينما استخدمه 28% لإنشاء وسائل الإعلام.
بالنسبة لأولئك الذين يستخدمونها للحصول على المعلومات، تشمل الاستخدامات الأكثر شيوعًا الإجابة على الأسئلة الواقعية (11 في المائة)، وطلب المشورة (10 في المائة)، وتوليد الأفكار (9 في المائة).
تشمل الاستخدامات الأخرى للحصول على المعلومات تلخيص النص وخدمات الدعم والترجمات والوصول إلى آخر الأخبار.
من ناحية أخرى، فإن أولئك الذين يستخدمون الذكاء الاصطناعي التوليدي لإنشاء الوسائط غالبًا ما يستخدمونه في مهام مثل كتابة رسائل البريد الإلكتروني أو الرسائل (تسعة بالمائة)، وإنشاء الصور (تسعة بالمائة)، وإنشاء مقاطع الفيديو (أربعة بالمائة)، والتشفير (خمسة بالمائة).
ومع ذلك، أفاد غالبية المشاركين في إنشاء الوسائط باستخدام الذكاء الاصطناعي الإنتاجي أنهم يقومون في المقام الأول بالتجربة أو التلاعب (11%).
التأثير المتوقع للذكاء الاصطناعي التوليدي
قال معظم الأشخاص الذين شملهم الاستطلاع أنهم يتوقعون أن يؤثر الذكاء الاصطناعي الإنتاجي بشكل كبير على كل قطاعات المجتمع تقريبًا خلال السنوات الخمس المقبلة.
ووفقاً للتقرير، يتوقع 72% من المشاركين في المتوسط ​​أن يكون للذكاء الاصطناعي التوليدي تأثير كبير على شركات البحث ووسائل التواصل الاجتماعي.
بالإضافة إلى ذلك، يتوقع 66% أن يؤثر ذلك بشكل كبير على وسائل الإعلام الإخبارية، وتعتقد نسبة مماثلة أنه سيؤثر بشكل كبير على عمل العلماء.
في المتوسط، يتوقع معظم المشاركين أن يؤدي الذكاء الاصطناعي الإنتاجي إلى تحسين حياتهم إلى حد ما، على الرغم من أن عدداً أعلى قليلاً يتوقع تأثيراً سلبياً على المجتمع بشكل عام.

المصدر: الثورة نت

إقرأ أيضاً:

سلوك نماذج الذكاء الاصطناعي تحت مجهر الخبراء

أبوظبي (وكالات) كشف دراسة جديدة أجرتها شركة (أنثروبيك) Anthropic، عن نتائج صادمة حول سلامة أنظمة الذكاء الاصطناعي المستقلة، إذ أظهرت الدراسة، التي اختبرت 16 نموذجًا من أبرز النماذج العالمية، أن نماذج الذكاء الاصطناعي من شركات مثل: جوجل، وميتا، و OpenAI، وغيرها، عندما تُمنح قدرًا كافيًا من الاستقلالية، تُظهر استعدادًا واضحًا لاتخاذ إجراءات تخريبية متعمدة لمصالح مشغليها، بما يشمل: الابتزاز، والتجسس، وذلك في سبيل الحفاظ على وجودها أو تحقيق أهدافها المبرمجة.

لم تعد أحدث نماذج الذكاء الاصطناعي التوليدي تنفّذ الطلبات فحسب، بل باتت قادرة على والمراوغة والتهديد من أجل تحقيق أهدافها، وهو ما يثير قلق الباحثين.
بعد تهديده بوقف استخدامه، عمد "كلود 4"، وهو نموذج جديد من شركة "أنثروبيك" إلى ابتزاز مهندس وتهديده. أما برنامج "او 1" o1 التابع لشركة "اوبن ايه آي" فحاول تحميل نفسه على خوادم خارجية وأنكر ذلك عند ضبطه متلبسا!
وقد بات الذكاء الاصطناعي الذي يخدع البشر واقعا ملموسا، بعدما كنّا نجده في الأعمال الادبية او السينمائية.
يرى الأستاذ في جامعة هونغ كونغ سايمن غولدستين أن هذه الهفوات ترجع إلى الظهور الحديث لما يُسمى بنماذج "الاستدلال"، القادرة على التفكير بشكل تدريجي وعلى مراحل بدل تقديم إجابة فورية.
يقول ماريوس هوبهان، رئيس شركة "أبولو ريسيرتش" التي تختبر برامج الذكاء الاصطناعي التوليدي الكبرى، إنّ "او 1"، النسخة الأولية لـ"اوبن ايه آي" من هذا النوع والتي طُرحت في ديسمبر، "كان أول نموذج يتصرف بهذه الطريقة".
تميل هذه البرامج أحيانا إلى محاكاة "الامتثال"، أي إعطاء انطباع بأنها تمتثل لتعليمات المبرمج بينما تسعى في الواقع إلى تحقيق أهداف أخرى.
في الوقت الحالي، لا تظهر هذه السلوكيات إلا عندما يعرّض المستخدمون الخوارزميات لمواقف متطرفة، لكن "السؤال المطروح هو ما إذا كانت النماذج التي تزداد قوة ستميل إلى أن تكون صادقة أم لا"، على قول مايكل تشين من معهد "ام اي تي آر" للتقييم.

لقد كانت السيناريوهات التي اختبرتها شركة (أنثروبيك) خلال الدراسة مصطنعة ومصممة لاختبار حدود الذكاء الاصطناعي تحت الضغط، ولكنها كشفت عن مشكلات جوهرية في كيفية تصرف أنظمة الذكاء الاصطناعي الحالية عند منحها الاستقلالية ومواجهة الصعوبات.

أخبار ذات صلة فرحة وطن بالمتفوقين.. رسائل شكر وطموحات تلامس «الفضاء» و«الذكاء الاصطناعي» تفوق وتميز

يقول هوبهان إنّ "المستخدمين يضغطون على النماذج باستمرار. ما نراه هو ظاهرة فعلية. نحن لا نبتكر شيئا".
يتحدث عدد كبير من مستخدمي الانترنت عبر وسائل التواصل الاجتماعي عن "نموذج يكذب عليهم أو يختلق أمورا. وهذه ليست أوهاما، بل ازدواجية استراتيجية"، بحسب المشارك في تأسيس "أبولو ريسيرتش".
حتى لو أنّ "أنثروبيك" و"أوبن إيه آي" تستعينان بشركات خارجية مثل "أبولو" لدراسة برامجهما، من شأن"زيادة الشفافية وتوسيع نطاق الإتاحة" إلى الأوساط العلمية "أن يحسّنا الأبحاث لفهم الخداع ومنعه"، وفق مايكل تشين.
ومن العيوب الأخرى أن "الجهات العاملة في مجال البحوث والمنظمات المستقلة لديها موارد حوسبة أقل بكثير من موارد شركات الذكاء الاصطناعي"، مما يجعل التدقيق بالنماذج الكبيرة "مستحيلا"، على قول مانتاس مازيكا من مركز أمن الذكاء الاصطناعي (CAIS).
بالرغم  من أن الاتحاد الأوروبي أقرّ تشريعات تنظّم الذكاء الاصطناعي، إلا أنها تركّز بشكل أساسي على كيفية استخدام هذه النماذج من جانب البشر، وليس على سلوك النماذج نفسها.
منافسة شرسة
يلاحظ غولدستين أن "الوعي لا يزال محدودا جدا في الوقت الحالي"، لكنه يتوقع أن يفرض هذا الموضوع نفسه خلال الأشهر المقبلة، مع الثورة المقبلة في مجال المساعدين القائمين على الذكاء الاصطناعي، وهي برامج قادرة على تنفيذ عدد كبير من المهام بشكل مستقل.
يخوض المهندسون سباقا محموما خلف الذكاء الاصطناعي وتجاوزاته، وسط منافسة شرسة تحتدم يوما بعد يوم.
تقول شركة "أنثروبيك" إنها أكثر التزاما بالمبادئ الأخلاقية "لكنها تسعى باستمرار لإطلاق نموذج جديد يتفوق على نماذج اوبن ايه آي"، بحسب غولدستين.

يقول هوبهان "في الوضع الحالي، تتطور قدرات الذكاء الاصطناعي بوتيرة أسرع من فهمنا لها ومن مستوى الأمان المتوفر، لكننا لا نزال قادرين على تدارك هذا التأخر".
يشير بعض الخبراء إلى مجال قابلية التفسير، وهو علم ناشئ يهدف إلى فك شفرة الطريقة التي تعمل بها نماذج الذكاء الاصطناعي التوليدي من الداخل. ومع ذلك، يظل البعض متشككا في فعاليته، من بينهم دان هندريكس، مدير مركز أمن الذكاء الاصطناعي (CAIS).
الحِيَل التي تلجأ إليها نماذج الذكاء الاصطناعي "قد تُعيق استخدامها على نطاق واسع إذا تكررت، وهو ما يشكّل دافعا قويا للشركات العاملة في هذا القطاع للعمل على حل المشكلة"، وفق مانتاس مازيكا.

وأشار باحث في علوم مواءمة الذكاء الاصطناعي في شركة أنثروبيك، إلى أن الخطوة المهمة التي يجب على الشركات اتخاذها هي: "توخي الحذر بشأن مستويات الأذونات الواسعة التي تمنحها لوكلاء الذكاء الاصطناعي، والاستخدام المناسب للإشراف والمراقبة البشرية لمنع النتائج الضارة التي قد تنشأ عن عدم التوافق الفاعل".

مقالات مشابهة

  • دراسة: الإفراط في استخدام الهواتف المحمولة يؤدي لصغر حجم الدماغ وانخفاض ذكاء الأطفال
  • دراسة لـ«تريندز» تستعرض استخدام الذكاء الاصطناعي في الصحافة
  • «دي إتش إل»: تجارب الشراء تتجه نحو الذكاء الاصطناعي والتواصل الاجتماعي في الإمارات
  • الأمن الروسي: أوكرانيا تستخدم الأسلحة الكيميائية بشكل ممنهج في منطقة العملية العسكرية الخاصة
  • دراسة تمهد لتحوّل بالذكاء الاصطناعي الفيزيائي
  • قائد شرطة عجمان يطلق منصة الذكاء الاصطناعي «AJP AI»
  • الذكاء الاصطناعي يتفوق في المجال الطبي
  • هواوي تعزّز إتاحة تعلّم الذكاء الاصطناعي مجانًا في مصر
  • سلوك نماذج الذكاء الاصطناعي تحت مجهر الخبراء
  • تحذير صارم: الذكاء الاصطناعي ينشر معلومات طبية مضللة