أتاحت الشركة الناشئة المدعومة من مايكروسوفت للمستخدمين الذين يدفعون رسوم، إنشاء إصدارات مخصصة من ChatGPT منذ نوفمبر، مع تمكن المشتركين الآخرين بعد ذلك من الوصول إلى ما يسمى بـ GPTs من خلال متجر Open AI عبر الإنترنت، وذلك بحسب تقرير لصحيفة «فايننشال تايمز» البريطانية.

وفقًا لبيانات جديدة من مجموعة التحليلاتSameWeb، فإن بعض تطبيقات GPT الأكثر شيوعًا تخدم الأغراض التعليمية، ويأتي التطبيق الثاني الأكثر استخدامًا هو Consensus، وهو أداة للبحث وتلخيص الأوراق الأكاديمية.

وأشار التقرير إلى أن استخدام التطبيقات الأخرى ارتفع بشدة هذا العام، بما في ذلك أدوات التصميم التي يمكنها إنشاء الصور على الفور ChatGPT 4 أو الترجمة بين اللغات أو المساعدة في طلبات العمل من خلال مراجعة السيرة الذاتية ورسائل التقديم.

لكن تحليل صحيفة فايننشال تايمز وجد أيضًا أن العديد من GPTs الشائعة يمكن أن تنتهك سياسات استخدام OpenAI، التي لديها قواعد ضد روبوتات الدردشة التي تقدم استشارات مالية أو قانونية أو طبية لم تتم مراجعتها من قبل متخصصين مؤهلين.

الذكاء الاصطناعيقدرات الــGPTs المتطورة

وتم تصنيف خمسة نماذج من GPTs الأكثر شهرة كمنتجات قادرة على إنتاج محتوى يفوق قدرة أدوات الكشف التي تستخدمها المدارس والجامعات لتحديد مدى تدخل الذكاء الاصطناعي في إعداد مقالات أو إجابات الطلاب، وقد رصد استخدام هذه الأدوات ما لا يقل عن ثلاثة ملايين مرة، على الرغم من حظر OpenAI لتطبيقات تشجع على الغش الأكاديمي أو تروج له.

ويوجد تطبيق آخر يعرف باسم Finance Wizard، تم استخدامه أكثر من مائتي ألف مرة، حيث يُدعي أنه قادر على كشف تحركات الأسهم المستقبلية، وصرح منشئ التطبيق لصحيفة فايننشال تايمز أن التطبيق يعتمد على التنبؤات المستقبلية استنادًا إلى البيانات التاريخية، ويحتوي على تنبيه محتوى يحذر من الاعتماد عليه كنصيحة مالية.

وفي العام الماضي، وأكد سام ألتمان، الرئيس التنفيذي لشركة OpenAI، أن الشركة ستتخذ إجراءات للتأكد من أن GPTs تلتزم بسياساتها قبل أن تصبح متاحة للاستخدام العام، وأكدت OpenAI أنها تعتمد على نظم آلية ومراجعة بشرية وتقارير المستخدمين للكشف عن GPTs التي قد تنتهك سياساتها، ويمكن للمستخدمين الآن أيضًا تقديم تقييمات ومراجعات لـ GPTs.

اقرأ أيضاًأشهر 5 مواقع تصميمات إلكترونية باستخدام الذكاء الاصطناعي

مدرس بإعلام توضح كيفية الاستفادة من الذكاء الاصطناعي

«الذكاء الاصطناعي» سبيل سامسونج للنمو مستقبلا

المصدر: الأسبوع

كلمات دلالية: اسعار الاسهم الذكاء الاصطناعي سوق الاموال شات جي بي تي الذکاء الاصطناعی استخدام ا

إقرأ أيضاً:

أخلاقيات الذكاء الاصطناعي

في مقالي السابق بعنوان: «الفن والذكاء الاصطناعي» تناولت هذا الموضوع من بُعد واحد فقط، وهو التساؤل مدى مشروعية الفن المصنوع وفقًا للذكاء الاصطناعي من الناحية الإبداعية، ونفيت عن هذا الفن المصنوع صفة الإبداع، مع التسليم بأهميته ودوره في مجالات معينة لا تُحسَب على الفنون الجميلة. وبوسعنا هنا التساؤل عن مدى مشروعية الفن المصنوع وفقًا للذكاء الاصطناعي من الناحية الأخلاقية. غير أن هذا سيكون مجرد مثال من الأمثلة على مسألة «أخلاقيات الذكاء الاصطناعي» التي تتعدد وتتباين في تطبيقاتها بناءً على تعدد وتباين مجالات الذكاء الاصطناعي ذاته، إذ إنها لا تقتصر على مجال الفن وحده، وإنما تمتد لتشمل كل المجالات العلمية والمعرفية عمومًا التي تؤثر في كل مناحي حياتنا، فهي تمتد لتشمل على سبيل المثال: عملية التفاعل الأخلاقي مع الروبوتات الخاصة بالرعاية الطبية والاجتماعية؛ واستخدام الأسلحة في الحروب؛ فضلًا عن استخدام برامج الذكاء الاصطناعي في عملية التزييف المتقن في مجال الفن والثقافة.

لعل الأخلاقيات المتعلقة باستخدام الآلة الذكية هي أكثر المسائل التي ترِد على الأذهان حينما نتطرق إلى مناقشة أخلاقيات الذكاء الاصطناعي. وهناك اعتقاد شائع بأنه حينما يتم تصميم الآلة الذكية لكي تتخذ مواقف وقرارات، فإن كل شيء يكون على ما يُرَام؛ لأن الناس يعتقدون أن الآلات - بخلاف البشر- لا ترتكب أخطاء، ولا تتورط في اتخاذ قرارات منحازة. ولكن هذا الاعتقاد واهم؛ لأن الآلات الذكية المصممة لكي تعمل باعتبارها «روبوتات» هي آلات من صنع البشر، وهي يتم تزويدها بمعلومات من صنع البشر. وأنا أستخدم هنا كلمة «معلومات» على سبيل التبسيط؛ لأن ما يتم تزويد الآلة به هو برامج خوارزمية شديدة التعقيد، والآلة تكون مصممة على هذا الأساس وعلى الغرض الذي أُنشِئت من أجله. وعلى هذا، فإن تصميم الآلة نفسه يكون عُرضة للتحيز الذي يمكن أن يحدث بطريقة قصدية أو بطريقة غير قصدية. ولهذا يرى بعض الباحثين أن الآلة تواجه المشكلات الأخلاقية نفسها التي نواجهها نحن البشر؛ وهي في النهاية تتخذ القرارات التي سنتخذها أو نود أن نتخذها لو كنا في موقفها.

غير أن المسألة الأخلاقية هنا أعقد من ذلك بكثير؛ لأن برمجة الآلات الذكية وفقًا لخوارزميات معينة لا يعني أن هذه الآلات سوف تتخذ دائمًا قرارًا واحدًا ثابتًا وصائبًا باستمرار؛ لأنها قد تتلقى معطيات مستمدة من العالم الخارجي لا تتطابق مع برمجة الآلات للاستجابة للمعطيات؛ إذ إن المعطيات المستمدة من العالم الخارجي قد تكون ملتبسة مع معطيات أخرى مشابهة بحيث لا تستطيع الآلة أن تحدد بدقة المعطيات المقصودة؛ ويكون عليها أن تتخذ قرارًا قد يكون خاطئًا. ويتضح هذه بوجه خاص في استخدام الأسلحة المبرمجة وفقًا للذكاء الاصطناعي، والتي تتصرف ذاتيًّا؛ ومن ثم تصبح عُرضة للخطأ. وليس ببعيد ما يحدث في عالمنا الراهن؛ إذ نجد أن إسرائيل تستخدم هذا النوع من الأسلحة في قتل الفلسطينيين، بل استخدمته في قتل فريق من أعضاء منظمة الغذاء العالمي، متذرعة بهذه الحجة العلمية، وهي أن هذه الأسلحة قابلة لارتكاب الخطأ، ولكنه ليس خطأ بشريّا، أي أنها ليست مبرمجة وفقًا لهذا القصد.

ولكن أخلاقيات الذكاء الاصطناعي تصبح أكثر تعقيدًا حينما ننظر في استخدام الروبوتات في مجال الرعاية الطبية والاجتماعية بوجه عام. ولقد تطورت صناعة هذه الروبوتات وبرمجتها بشكل مذهل، بحيث أصبحنا نجد في عالمنا الآن روبوتات تشبه البشر من الجنسين بمختلف أشكالهم وألوانهم، وهي روبوتات مبرمَجة على أداء الخدمات والرعاية الفائقة، بل التعبير عن المشاعر المتبادلة. وقد أطلق كل هذا عنان الخيال لدى السينمائيين الذين صنعوا أفلامًا تصور هذا الموضوع وتتنبأ بما يمكن أن يؤول إليه في المستقبل القريب. وهناك عشرات الأفلام التي تمثلت هذا الموضوع خلال العقد الأخير، ونال بعضها جوائز الأوسكار. وهناك فيلم - لا يحضرني اسمه - يعد مثالًا جيدًا هنا. يحكي الفيلم عن استعانة زوجين بروبوت يقوم بالخدمة والرعاية الاجتماعية الفائقة، بناءً على إعلان شركة صانعة عن المزايا العديدة لهذا الروبوت الذي هو أحدث إنتاجها. ولأن الروبوت كان مصممًا لأداء كل ما هو مطلوب منه بكل دقة، بل كان أيضًا مصممًا للتعبير عن مشاعره من خلال تعبير صوته ووجهه أيضًا؛ فقد نشأت علاقة عاطفية بين الروبوت والزوجة، واعتاد كل منهما البقاء مع الآخر. وليس ببعيد عنا ما تداولته الأخبار مؤخرًا عن زواج بين شاب ياباني والأنثى الروبوت التي يرافقها! ومثل هذا النوع من الأخبار يتكرر من حين لآخر هنا وهناك.

ولكن أخلاقيات الذكاء الاصطناعي في مجال الفن تتبدى بشكل مختلف، ودور العنصر الإنساني فيه يكون أكثر اتساعًا، والمشكلة الأخلاقية الأساسية هنا تكمن في إمكانية استخدام الآلة الذكية (المبرمجة) في عملية التزييف وانتهاك حقوق الملكية الفكرية: فلقد أصبح من المألوف قيام بعض المحترفين بسرقة «التيمة الأساسية» في لوحة ما، وإدخال بعض التعديلات والرتوش على تفاصيل اللوحة لكي تبدو في النهاية وكأنها عمل إبداعي! كما أن مستخدمي الذكاء الاصطناعي يمكنهم محاكاة أسلوب فنان ما وإنتاج أعمال ينسبونها إليه، ولكن من حسن الحظ أن هناك برامج في الذكاء الاصطناعي نفسه يمكنها الكشف عن هذا التزييف.

كل ما سبق يعني أن الذكاء الاصطناعي هو- كالتكنولوجيا عمومًا- أداة محايدة يمكن حسن استخدامها أو إساءة استخدامها؛ وبالتالي فإن هناك حاجة إلى وضع حدود للذكاء الاصطناعي، من خلال مبادئ تشريعية ومواثيق أخلاقية دولية لها طبيعة إلزامية.

د. سعيد توفيق أستاذ علم الجمال والفلسفة المعاصرة بجامعة القاهرة

مقالات مشابهة

  • غوتيريش: هناك حاجة إلى تنظيم عاجل للذكاء الاصطناعي بمشاركة جميع الدول
  • مناقشة آلية استخدام تقنيات الذكاء الاصطناعي لتحقيق ميزة تنافسية وتحسين الأداء في السوق العقاري
  • البرازيل تأمر ميتا بتعليق استخدام بيانات المستخدمين لتدريب برامج الذكاء الاصطناعي
  • البرازيل تمنع Meta من استخدام منشورات البرازيليين على وسائل التواصل الاجتماعي.. ما القصة؟
  • السلطات الفرنسية تحقق في اتهامات بإساءة استخدام المال العام ضد رئيس تشاد
  • رئيس قسم AI في مايكروسوفت يوضح قانونية استخدام محتوى الإنترنت لتدريب النماذج
  • أخلاقيات الذكاء الاصطناعي
  • ضاحي خلفان: دورات صيفية للشباب في الذكاء الاصطناعي
  • الجبورى: تقاس قدرات الدول وإمكاناتها بمدى تحكمها في تكنولوجيا المعلومات والإستفادة من البيانات الضخمة
  • أفضل 5 تطبيقات ذكاء اصطناعي لأجهزة الآيفون والأندرويد