العام الجديد ومستقبل التقنيات الحديثة.. هل التكامل بين البشر والذكاء الاصطناعي على وشك الانهيار؟
تاريخ النشر: 30th, December 2023 GMT
الرؤية- سارة العبرية
يبدأ عام 2024 وسط ترقب كبير للتحولات الثورية في مجال التقنية والذكاء الاصطناعي، ومدى تأثير هذه الابتكارات على العلاقة بين الإنسان والتكنولوجيا في ظل تسارع وتيرة الاكتشافات الجديدة والمميزات التي يتم الإعلان عنها يوماً بعد يوم.
ولقد قررت العديد من الشركات التخلي عن بعض موظفيها أو على الأقل الاستعداد لاتخاذ تلك الخطوة، في ظل الاعتماد الكبير على الذكاء الاصطناعي، وذلك في الوقت التي تتسابق فيه بعض الشركات لتوظيف التقنيات الحديثة، وذلك وفقًا للاتجاهات التي تظهرها أحدث الاستطلاعات.
وتشير آراء المعارضين لهذا التطور- بحسب الاستطلاع- إلى أن الذكاء الاصطناعي قد يؤدي إلى تدمير سوق العمل، في حين يروي المؤيدون أنه يمكن توظيفه بشكل تكاملي مع العامل البشري لتسريع وتطوير المهام العملية، وعلى الرغم من وجود جدل بين الطرفين، إلا أن فهم واستخدام هذه التطبيقات بشكل فعّال يمكن أن يحقق نتائج إيجابية واسعة في مجال الأعمال.
ويُظهر بوضوح أن هذا الجدل لن يحسم قريبًا، خاصة مع تصاعد المخاوف من تقدم الذكاء الاصطناعي ومع استمرار تطوير هذه التقنيات بوتيرة سريعة، وسط منافسة غير مسبوقة من عمالقة الصناعة على مستوى العالم، إذ يمكن أن يكون العام القادم مليئًا بتطورات مثيرة.
ماذا يحمل عام 2024؟
وفيما يتعلق بمستقبل المنافسة بين البشر والذكاء الاصطناعي في عام 2024، يشير خبراء التكنولوجيا إلى عدة مجالات قد تشهد تنافسًا شديدًا، مثل الوظائف؛ حيث يمكن أن يؤدي التطور المستمر للذكاء الاصطناعي إلى استبدال بعض الوظائف التقليدية، وفي مجال الألعاب يتوقع أن يستمر الذكاء الاصطناعي في التفوق، بينما يمكن استخدامه بشكل متزايد في مجالات مثل الطب والتصنيع.
وسيتوقف مستقبل هذه المنافسة على عدة عوامل، بما في ذلك وتيرة تقدم التكنولوجيا واستجابة البشر لها، ومع ذلك يتوقع أن يتسارع هذا التنافس في عام 2024 مع استمرار تطوير وتوسيع نطاق تطبيقات الذكاء الاصطناعي.
وتظهر نتائج استطلاع أجرته ResumeBuilder أن نسبة كبيرة من الشركات قد اعتمدت بالفعل على التقنيات الذكية في مهام مختلفة، وهو ما يعزز التكامل بين البشر والذكاء الاصطناعي، كما تشير النتائج إلى أن الموظفين الذين يتقنون مهارات الذكاء الاصطناعي قد يحظون بأمان وظيفي أكبر، وتشجع الشركات على التكيف مع هذا التطور التكنولوجي لتحسين أدائها.
وبالإضافة إلى المجالات المشمولة في الاستطلاع، يُتوقع أن يتنافس الذكاء الاصطناعي في مجالات أخرى كالتعليم والإبداع وخدمة العملاء في المستقبل؛ وهذا يبرز أهمية فهم الشركات والأفراد للتحديات والفرص المترتبة على هذه المنافسة المعقدة والتأثيرات البعيدة المدى التي قد تخلقها.
ميثاق أخلاقي
ويُعتبر التحدي الأخلاقي في مجال الذكاء الاصطناعي من أبرز القضايا التي تشغل تفكير المجتمع الدولي، رغم تقدم تكنولوجيا الذكاء الاصطناعي وتطورها السريع، إلا أن هناك حاجة مُلحة لوضع ميثاق أخلاقي يوجه استخدام وتطوير هذه التقنية، إذ إن اعتماد إطار أخلاقي يرتكز على قواعد ومبادئ مشتركة يسهم في توجيه التقنية نحو تحقيق الفوائد الإيجابية وتقليل المخاطر والتحديات المحتملة.
التحديات الأخلاقية
وتتسم التحديات الأخلاقية في ميدان الذكاء الاصطناعي بعدة جوانب، من بينها الخصوصية والأمان؛ حيث يتعين ضمان حماية البيانات الشخصية وتأمين الأنظمة الذكية لتجنب انتهاكات الخصوصية والتهديدات الأمنية، كما يتطلب الأمر التركيز على مسألة التمييز والعدالة، مع الحرص على تجنب أي تمييز غير مبرر وضمان تكامل وعدالة الأنظمة الذكية في التعامل مع جميع شرائح المجتمع.
ويضاف إلى ذلك، مكونات أخرى مهمة مثل الشفافية والشراكة؛ حيث يحتاج الأفراد إلى فهم كيفية استخدام التكنولوجيا الذكية في تقديم الخدمات واتخاذ القرارات، إلى جانب تحديات أخرى في تحديد المسؤولية عن القرارات والأفعال التي يقوم بها النظام الذكي، إضافة إلى النظر في الأثر الاجتماعي والاقتصادي؛ أي يجب توجيه التقنية نحو تحقيق فوائد اجتماعية واقتصادية وتجنب تكريس الفجوات الاجتماعية.
وفي إطار السلامة، يشدد المختصون على ضرورة وضع آليات فعّالة لضمان سلامة الأنظمة ومنع حدوث أخطاء أو أضرار غير متوقعة، وأهمية توجيه التكنولوجيا نحو التنمية المستدامة وضمان استفادة المجتمع منها دون تعريضه لمخاطر أخلاقية أو اجتماعية.
وفي ضوء هذه التحديات، تُبذل جهود دولية لوضع مبادئ أخلاقية مشتركة لتوجيه استخدام الذكاء الاصطناعي، وتشارك العديد من الشركات والمؤسسات العلمية في هذه الجهود، بالإضافة إلى وجود مبادرات من قِبل المنظمات الدولية لتطوير إطار قانوني وأخلاقي لضمان تقدم آمن ومسؤول في ميدان الذكاء الاصطناعي.
توجهات التقنية الاستراتيجية
بحلول عام 2026، من المتوقع أن تشهد التطبيقات الجديدة تزايداً في استخدام التكنولوجيا الذكية، حيث يُتوقع أن تتجاوز نسبة استخدام الذكاء الاصطناعي 30%، ويتيح هذا التقدم للتطبيقات التفاعل مع مستخدميها بشكل أكثر دقة وخصوصية، ويعزز إمكانية دمج عناصر الذكاء لتعزيز إنتاجية العمل وتحسين مستوى الأتمتة في تلك التطبيقات.
وفي ظل التطورات الحالية، يتوقع أن يعتمد نحو 25% من الرؤساء التنفيذيين بحلول عام 2027 على مبادرات القوى العاملة المتصلة والمعززة، وتهدف هذه المبادرات إلى تعزيز كفاءة 50% من الوظائف الرئيسية في الشركات، وذلك من خلال تقليل الوقت اللازم لتنفيذ مهام هذه الوظائف، بالإضافة إلى توقع استخدام ثلثي مهندسي برمجيات المؤسسات في عام 2028 تقنيات الذكاء الاصطناعي لتعزيز عمليات البرمجة، واستفادة مساعدي المبرمجين من تطبيق التقنيات مثل الذكاء الاصطناعي التوليدي والتعلم الآلي لتسهيل عمليات تصميم وبرمجة واختبار التطبيقات.
وفي غضون هذا الوقت، من المنتظر أن يتوفر نحو 15 مليار منتج بقدرة على التفاعل كعميل، إذ تعزز برمجة التطبيقات بشكل كبير فعالية الذكاء الاصطناعي، مما يُسهم في تحسين إنتاجية المطورين ويمكن فرق التطوير من مواكبة الطلب المتزايد على البرمجيات اللازمة لدعم عمليات المؤسسات.
المصدر: جريدة الرؤية العمانية
إقرأ أيضاً:
سلوك نماذج الذكاء الاصطناعي تحت مجهر الخبراء
أبوظبي (وكالات) كشف دراسة جديدة أجرتها شركة (أنثروبيك) Anthropic، عن نتائج صادمة حول سلامة أنظمة الذكاء الاصطناعي المستقلة، إذ أظهرت الدراسة، التي اختبرت 16 نموذجًا من أبرز النماذج العالمية، أن نماذج الذكاء الاصطناعي من شركات مثل: جوجل، وميتا، و OpenAI، وغيرها، عندما تُمنح قدرًا كافيًا من الاستقلالية، تُظهر استعدادًا واضحًا لاتخاذ إجراءات تخريبية متعمدة لمصالح مشغليها، بما يشمل: الابتزاز، والتجسس، وذلك في سبيل الحفاظ على وجودها أو تحقيق أهدافها المبرمجة.
لم تعد أحدث نماذج الذكاء الاصطناعي التوليدي تنفّذ الطلبات فحسب، بل باتت قادرة على والمراوغة والتهديد من أجل تحقيق أهدافها، وهو ما يثير قلق الباحثين.
بعد تهديده بوقف استخدامه، عمد "كلود 4"، وهو نموذج جديد من شركة "أنثروبيك" إلى ابتزاز مهندس وتهديده. أما برنامج "او 1" o1 التابع لشركة "اوبن ايه آي" فحاول تحميل نفسه على خوادم خارجية وأنكر ذلك عند ضبطه متلبسا!
وقد بات الذكاء الاصطناعي الذي يخدع البشر واقعا ملموسا، بعدما كنّا نجده في الأعمال الادبية او السينمائية.
يرى الأستاذ في جامعة هونغ كونغ سايمن غولدستين أن هذه الهفوات ترجع إلى الظهور الحديث لما يُسمى بنماذج "الاستدلال"، القادرة على التفكير بشكل تدريجي وعلى مراحل بدل تقديم إجابة فورية.
يقول ماريوس هوبهان، رئيس شركة "أبولو ريسيرتش" التي تختبر برامج الذكاء الاصطناعي التوليدي الكبرى، إنّ "او 1"، النسخة الأولية لـ"اوبن ايه آي" من هذا النوع والتي طُرحت في ديسمبر، "كان أول نموذج يتصرف بهذه الطريقة".
تميل هذه البرامج أحيانا إلى محاكاة "الامتثال"، أي إعطاء انطباع بأنها تمتثل لتعليمات المبرمج بينما تسعى في الواقع إلى تحقيق أهداف أخرى.
في الوقت الحالي، لا تظهر هذه السلوكيات إلا عندما يعرّض المستخدمون الخوارزميات لمواقف متطرفة، لكن "السؤال المطروح هو ما إذا كانت النماذج التي تزداد قوة ستميل إلى أن تكون صادقة أم لا"، على قول مايكل تشين من معهد "ام اي تي آر" للتقييم.
لقد كانت السيناريوهات التي اختبرتها شركة (أنثروبيك) خلال الدراسة مصطنعة ومصممة لاختبار حدود الذكاء الاصطناعي تحت الضغط، ولكنها كشفت عن مشكلات جوهرية في كيفية تصرف أنظمة الذكاء الاصطناعي الحالية عند منحها الاستقلالية ومواجهة الصعوبات.
يقول هوبهان إنّ "المستخدمين يضغطون على النماذج باستمرار. ما نراه هو ظاهرة فعلية. نحن لا نبتكر شيئا".
يتحدث عدد كبير من مستخدمي الانترنت عبر وسائل التواصل الاجتماعي عن "نموذج يكذب عليهم أو يختلق أمورا. وهذه ليست أوهاما، بل ازدواجية استراتيجية"، بحسب المشارك في تأسيس "أبولو ريسيرتش".
حتى لو أنّ "أنثروبيك" و"أوبن إيه آي" تستعينان بشركات خارجية مثل "أبولو" لدراسة برامجهما، من شأن"زيادة الشفافية وتوسيع نطاق الإتاحة" إلى الأوساط العلمية "أن يحسّنا الأبحاث لفهم الخداع ومنعه"، وفق مايكل تشين.
ومن العيوب الأخرى أن "الجهات العاملة في مجال البحوث والمنظمات المستقلة لديها موارد حوسبة أقل بكثير من موارد شركات الذكاء الاصطناعي"، مما يجعل التدقيق بالنماذج الكبيرة "مستحيلا"، على قول مانتاس مازيكا من مركز أمن الذكاء الاصطناعي (CAIS).
بالرغم من أن الاتحاد الأوروبي أقرّ تشريعات تنظّم الذكاء الاصطناعي، إلا أنها تركّز بشكل أساسي على كيفية استخدام هذه النماذج من جانب البشر، وليس على سلوك النماذج نفسها.
منافسة شرسة
يلاحظ غولدستين أن "الوعي لا يزال محدودا جدا في الوقت الحالي"، لكنه يتوقع أن يفرض هذا الموضوع نفسه خلال الأشهر المقبلة، مع الثورة المقبلة في مجال المساعدين القائمين على الذكاء الاصطناعي، وهي برامج قادرة على تنفيذ عدد كبير من المهام بشكل مستقل.
يخوض المهندسون سباقا محموما خلف الذكاء الاصطناعي وتجاوزاته، وسط منافسة شرسة تحتدم يوما بعد يوم.
تقول شركة "أنثروبيك" إنها أكثر التزاما بالمبادئ الأخلاقية "لكنها تسعى باستمرار لإطلاق نموذج جديد يتفوق على نماذج اوبن ايه آي"، بحسب غولدستين.
يقول هوبهان "في الوضع الحالي، تتطور قدرات الذكاء الاصطناعي بوتيرة أسرع من فهمنا لها ومن مستوى الأمان المتوفر، لكننا لا نزال قادرين على تدارك هذا التأخر".
يشير بعض الخبراء إلى مجال قابلية التفسير، وهو علم ناشئ يهدف إلى فك شفرة الطريقة التي تعمل بها نماذج الذكاء الاصطناعي التوليدي من الداخل. ومع ذلك، يظل البعض متشككا في فعاليته، من بينهم دان هندريكس، مدير مركز أمن الذكاء الاصطناعي (CAIS).
الحِيَل التي تلجأ إليها نماذج الذكاء الاصطناعي "قد تُعيق استخدامها على نطاق واسع إذا تكررت، وهو ما يشكّل دافعا قويا للشركات العاملة في هذا القطاع للعمل على حل المشكلة"، وفق مانتاس مازيكا.
وأشار باحث في علوم مواءمة الذكاء الاصطناعي في شركة أنثروبيك، إلى أن الخطوة المهمة التي يجب على الشركات اتخاذها هي: "توخي الحذر بشأن مستويات الأذونات الواسعة التي تمنحها لوكلاء الذكاء الاصطناعي، والاستخدام المناسب للإشراف والمراقبة البشرية لمنع النتائج الضارة التي قد تنشأ عن عدم التوافق الفاعل".