بوابة الوفد:
2025-07-09@09:04:00 GMT

OpenAI تعلن عن اختفاء الوظائف الإبداعية

تاريخ النشر: 23rd, June 2024 GMT

عادت ميرا موراتي، مديرة التكنولوجيا في OpenAI، إلى جامعتها الأم، كلية دارتموث، هذا الأسبوع لإجراء محادثة مثيرة للتفكير حول مستقبل الذكاء الاصطناعي وتأثيره المحتمل على المجتمع. خلال هذا الحدث، الذي أقيم في المبنى الهندسي الذي تم تشييده حديثًا في دارتموث، شاركت موراتي، خريجة عام 2012 من كلية ثاير للهندسة، في مناقشة واسعة النطاق، وتطرقت إلى موضوعات من رحلتها في OpenAI إلى الاعتبارات الأخلاقية المحيطة بنماذج اللغات الكبيرة وصحة الدقة.


ومع ذلك، فقد كان أحد التعليقات المحددة هو الذي أثار جدلاً كبيرًا بين الحاضرين وعلى الإنترنت. وعندما سُئل موراتي عن احتمالية إزاحة الوظائف بسبب الذكاء الاصطناعي، قال: "ربما ستختفي بعض الوظائف الإبداعية، ولكن ربما لم يكن من المفترض أن تكون موجودة في المقام الأول".

وعلى الرغم من أن ملاحظة موراتي تبدو غير رسمية، فإنها تمس وتراً حساساً للغاية في عصر التقدم التكنولوجي السريع. أثار احتمال أتمتة المهام التي يؤديها البشر عادة بواسطة الذكاء الاصطناعي، وخاصة في المجالات الإبداعية، مخاوف بشأن الأمن الوظيفي ومستقبل العمل.

ومع الاعتراف باحتمال فقدان الوظائف، بدا أن بيان موراتي يشير إلى أن بعض الأدوار الإبداعية قد تكون غير فعالة بطبيعتها أو غير ضرورية، مما يعني ضمنا أن القضاء عليها بواسطة الذكاء الاصطناعي يمكن أن يكون تطورا إيجابيا.

وعلى الرغم من اعترافها الصريح بالاستغناء المحتمل عن الوظائف، أكدت موراتي على الطبيعة التعاونية لأدوات الذكاء الاصطناعي مثل ChatGPT وDALL-E. واقترحت أن هذه التقنيات، بدلاً من استبدال الإبداع البشري، تعمل في الواقع على تعزيزه وتوسيعه، وتوفير سبل جديدة للتعبير الفني وحل المشكلات. "إنها أداة، أليس كذلك؟" وعلقت قائلة: "من المؤكد أنها يمكن أن تفعل ذلك كأداة، وأتوقع أننا سنتعاون معها بالفعل وستؤدي إلى توسيع إبداعنا."

كما سلطت الضوء على قدرة الذكاء الاصطناعي على إضفاء الطابع الديمقراطي على الإبداع، مما يجعله في متناول مجموعة واسعة من الأفراد الذين ربما لم يكن لديهم الموارد أو التدريب لتحقيق تطلعاتهم الإبداعية في الماضي. وأوضحت "الجزء الأول من أي شيء تحاول القيام به، سواء كان إنشاء تصميمات جديدة، أو البرمجة، أو كتابة مقال أو، كما تعلمون، مفاهيم في الطوبولوجيا، يمكنك فقط تعلمها حول هذه الأشياء والتفاعل معها بطريقة أكثر سهولة، وهذا يوسع نطاق تعلمك."


تناولت المناقشة في دارتموث أيضًا الاعتبارات الأخلاقية المحيطة بتطوير الذكاء الاصطناعي. واعترف موراتي بأهمية إدارة أنظمة الذكاء الاصطناعي بعناية، خاصة مع تقدم قدراتها. وشددت على الحاجة إلى اتباع نهج متعدد أصحاب المصلحة في التنظيم، بما في ذلك التعاون بين المطورين وواضعي السياسات والجمهور الأوسع. قالت: "يمكنك الحصول على هذا النموذج المذهل، يأخذه الشركاء التجاريون ويصنعون منتجات مذهلة فوقه، ثم اكتشفنا أن هذا في الواقع صعب للغاية."

وسلطت الضوء على الدور الحاسم الذي تلعبه منظمات مثل OpenAI في قيادة الأبحاث والتخفيف بشكل استباقي من المخاطر المحتملة المرتبطة بالذكاء الاصطناعي. وأوضحت: "نحن نفكر كثيرًا في هذا الأمر". "من المؤكد أنه سيكون لديك أنظمة ذكاء اصطناعي تتمتع بقدرات عامة، وتتصل بالإنترنت، وتتحدث مع بعضها البعض، أو وكلاء يتواصلون مع بعضهم البعض ويقومون بالمهام معًا، أو وكلاء يعملون مع البشر ويتعاونون بسلاسة."

المصدر: بوابة الوفد

كلمات دلالية: الذکاء الاصطناعی

إقرأ أيضاً:

خمس حقائق قد لا تعرفها عن طريقة عمل روبوتات الذكاء الاصطناعي مثل ChatGPT

مع تزايد الاعتماد على روبوتات الدردشة المدعومة بـ الذكاء الاصطناعي في حياتنا اليومية، يتساءل كثيرون كيف تعمل هذه الأدوات بالضبط؟ وهل نستخدمها بطريقة صحيحة؟ في هذا التقرير، نرصد أبرز خمس حقائق مهمة لفهم كيفية عمل روبوتات الذكاء الاصطناعي مثل ChatGPT و Google Gemini، وكيف نتعامل معها بوعي وفعالية.

تُدرَّب بواسطة تدخل بشري مباشر

تمر روبوتات الدردشة بمراحل متعددة من التدريب، تبدأ بمرحلة تُعرف بـ"ما قبل التدريب" (Pre-training)، حيث يتم تعليم النموذج توقع الكلمة التالية داخل كميات ضخمة من النصوص، هذا التدريب يمنحه فهماً عاماً للغة والمعلومات والمنطق.

لكن هذا التدريب وحده لا يكفي لضمان الأمان والموثوقية. إذ يتدخل بعدها "مُقيِّمون بشريون" لتوجيه النموذج نحو إجابات آمنة ومفيدة، فيما يُعرف بمرحلة "الضبط الأخلاقي" أو "المحاذاة" (Alignment). 

في هذه المرحلة، يتم تصنيف الإجابات واختيار الأكثر حيادية وملاءمة، وهو ما يمنع النموذج من تقديم معلومات خطيرة أو مضللة.

ورغم أن شركة OpenAI لم تكشف عدد الأشخاص الذين شاركوا في تدريب ChatGPT أو عدد ساعات التدريب، فإن تدخل البشر يعد ضرورياً لمنح النموذج "بوصلة أخلاقية" تقلل من مخاطره المحتملة.

لا يتعامل مع الكلمات... بل مع "الرموز"

على عكس الإنسان الذي يفكر بالكلمات، يتعامل روبوت الذكاء الاصطناعي مع وحدات أصغر تُسمى "الرموز" أو Tokens. 

وقد تكون هذه رموزاً كاملة، أو أجزاء من كلمات، أو حتى تسلسلات عشوائية من الحروف.

على سبيل المثال، الجملة "The price is $9.99." تُجزأ إلى رموز مثل: "The", "price", "is", "$", "9", ".", "99". أما "ChatGPT is marvellous"، فقد يتم تحليلها بطريقة أقل منطقية مثل: "chat", "G", "PT", "is", "mar", "vellous".

تُظهر هذه العملية مدى تعقيد فهم اللغة عند الذكاء الاصطناعي، بما له من نقاط قوة وحدود.

معلوماته قديمة ويصعب تحديثها

تُعدُّ روبوتات الذكاء الاصطناعي أدوات "ثابتة المعرفة"، أي أنها لا تقوم بتحديث نفسها تلقائيًا.

 وكل إصدار من ChatGPT مثلاً، يتوقف عند "تاريخ معرفة" معين. الإصدار الحالي مثلاً يمتلك معرفة حتى يونيو 2024 فقط.

عند سؤاله عن أخبار حديثة أو أسماء رؤساء حاليين، يحتاج إلى استخدام محرك بحث مثل Bing لقراءة النتائج وتقديم إجابة. 

وتُعد عملية تحديث النموذج مكلفة علمياً ومالياً، ولا تزال الأبحاث مستمرة لتطوير آلية تحديث أكثر كفاءة.

قابلة للهذيان... بثقة

إحدى أكبر مشكلات روبوتات الدردشة هي أنها قد "تهلوس" — أي تقدم معلومات غير صحيحة أو مختلقة ولكن بثقة كاملة. وذلك لأنها تركز على إنتاج نص مترابط أكثر من التركيز على دقته.

حتى مع وجود أدوات مساعدة مثل التحقق من المصادر أو دمج محركات البحث، لا يمكن منع الهلوسة بالكامل. لذا يُنصح باستخدام روبوتات الدردشة كنقطة انطلاق، وليس كمرجع نهائي للمعلومات.

تعتمد على الآلات الحاسبة لحل المعادلات

في مهام الرياضيات والاستنتاجات المنطقية المعقدة، تعتمد روبوتات الذكاء الاصطناعي على خاصية تُعرف بـ"سلسلة التفكير" (Chain of Thought). هذه الطريقة تُمكّن النموذج من حل المسألة خطوة بخطوة بدلاً من تقديم الإجابة مباشرة.

ولتفادي الأخطاء الحسابية، تستعين هذه النماذج بآلة حاسبة داخلية قادرة على تنفيذ العمليات الرياضية الدقيقة. هذا المزج بين المنطق الداخلي والأدوات المساعدة يحسّن من كفاءة الحلول.

خلاصة

تعكس هذه الحقائق أن روبوتات الذكاء الاصطناعي مثل ChatGPT ليست مجرد أدوات للمحادثة، بل كيانات معقدة تعتمد على قدر هائل من البيانات والتدريب البشري. 

لكنها تظل محدودة بالزمان، قابلة للخطأ، وتفتقر للفهم الحقيقي للعالم. التعامل معها بذكاء يبدأ بفهم آلية عملها وحدود قدراتها، وهذا ما يميز المستخدم الواعي عن غيره.

طباعة شارك الذكاء الاصطناعي ChatGPT Google Gemini

مقالات مشابهة

  • الخارجية الأميركية تحذر من انتحال هوية دبلوماسيين عبر الذكاء الاصطناعي
  • شخص ينتحل شخصية وزير الخارجية الأمريكي عبر الذكاء الاصطناعي ويتواصل مع مسؤولين كبار
  • الجمعية المعلوماتية تعلن أسماء الفريق الوطني لأولمبياد الذكاء الاصطناعي العالمي
  • الذكاء الاصطناعي يطوّر مقاطع الفيديو بشكل مبهر
  • 5 حقائق عن عمل روبوتات الذكاء الاصطناعي
  • غوتيريش يحذر من عسكرة الذكاء الاصطناعي
  • خمس حقائق قد لا تعرفها عن طريقة عمل روبوتات الذكاء الاصطناعي مثل ChatGPT
  • الذكاء الاصطناعي.. أمل اللغات المهددة
  • تحذير من رئيس فورد: الذكاء الاصطناعي يهدد ملايين الموظفين حول العالم
  • الذكاء الفائق خيال علمي أم استثمار مستقبلي؟ خطط جديدة لتجاوز القدرات البشرية