الرؤية- سارة العبرية

يبدأ عام 2024 وسط ترقب كبير للتحولات الثورية في مجال التقنية والذكاء الاصطناعي، ومدى تأثير هذه الابتكارات على العلاقة بين الإنسان والتكنولوجيا في ظل تسارع وتيرة الاكتشافات الجديدة والمميزات التي يتم الإعلان عنها يوماً بعد يوم.

ولقد قررت العديد من الشركات التخلي عن بعض موظفيها أو على الأقل الاستعداد لاتخاذ تلك الخطوة، في ظل الاعتماد الكبير على الذكاء الاصطناعي، وذلك في الوقت التي تتسابق فيه بعض الشركات لتوظيف التقنيات الحديثة، وذلك وفقًا للاتجاهات التي تظهرها أحدث الاستطلاعات.

وتشير آراء المعارضين لهذا التطور- بحسب الاستطلاع- إلى أن الذكاء الاصطناعي قد يؤدي إلى تدمير سوق العمل، في حين يروي المؤيدون أنه يمكن توظيفه بشكل تكاملي مع العامل البشري لتسريع وتطوير المهام العملية، وعلى الرغم من وجود جدل بين الطرفين، إلا أن فهم واستخدام هذه التطبيقات بشكل فعّال يمكن أن يحقق نتائج إيجابية واسعة في مجال الأعمال.

ويُظهر بوضوح أن هذا الجدل لن يحسم قريبًا، خاصة مع تصاعد المخاوف من تقدم الذكاء الاصطناعي ومع استمرار تطوير هذه التقنيات بوتيرة سريعة، وسط منافسة غير مسبوقة من عمالقة الصناعة على مستوى العالم، إذ يمكن أن يكون العام القادم مليئًا بتطورات مثيرة.

ماذا يحمل عام 2024؟

وفيما يتعلق بمستقبل المنافسة بين البشر والذكاء الاصطناعي في عام 2024، يشير خبراء التكنولوجيا إلى عدة مجالات قد تشهد تنافسًا شديدًا، مثل الوظائف؛ حيث يمكن أن يؤدي التطور المستمر للذكاء الاصطناعي إلى استبدال بعض الوظائف التقليدية، وفي مجال الألعاب يتوقع أن يستمر الذكاء الاصطناعي في التفوق، بينما يمكن استخدامه بشكل متزايد في مجالات مثل الطب والتصنيع.

وسيتوقف مستقبل هذه المنافسة على عدة عوامل، بما في ذلك وتيرة تقدم التكنولوجيا واستجابة البشر لها، ومع ذلك يتوقع أن يتسارع هذا التنافس في عام 2024 مع استمرار تطوير وتوسيع نطاق تطبيقات الذكاء الاصطناعي.

وتظهر نتائج استطلاع أجرته ResumeBuilder أن نسبة كبيرة من الشركات قد اعتمدت بالفعل على التقنيات الذكية في مهام مختلفة، وهو ما يعزز التكامل بين البشر والذكاء الاصطناعي، كما تشير النتائج إلى أن الموظفين الذين يتقنون مهارات الذكاء الاصطناعي قد يحظون بأمان وظيفي أكبر، وتشجع الشركات على التكيف مع هذا التطور التكنولوجي لتحسين أدائها.

وبالإضافة إلى المجالات المشمولة في الاستطلاع، يُتوقع أن يتنافس الذكاء الاصطناعي في مجالات أخرى كالتعليم والإبداع وخدمة العملاء في المستقبل؛ وهذا يبرز أهمية فهم الشركات والأفراد للتحديات والفرص المترتبة على هذه المنافسة المعقدة والتأثيرات البعيدة المدى التي قد تخلقها.

ميثاق أخلاقي

ويُعتبر التحدي الأخلاقي في مجال الذكاء الاصطناعي من أبرز القضايا التي تشغل تفكير المجتمع الدولي، رغم تقدم تكنولوجيا الذكاء الاصطناعي وتطورها السريع، إلا أن هناك حاجة مُلحة لوضع ميثاق أخلاقي يوجه استخدام وتطوير هذه التقنية، إذ إن اعتماد إطار أخلاقي يرتكز على قواعد ومبادئ مشتركة يسهم في توجيه التقنية نحو تحقيق الفوائد الإيجابية وتقليل المخاطر والتحديات المحتملة.

التحديات الأخلاقية

وتتسم التحديات الأخلاقية في ميدان الذكاء الاصطناعي بعدة جوانب، من بينها الخصوصية والأمان؛ حيث يتعين ضمان حماية البيانات الشخصية وتأمين الأنظمة الذكية لتجنب انتهاكات الخصوصية والتهديدات الأمنية، كما يتطلب الأمر التركيز على مسألة التمييز والعدالة، مع الحرص على تجنب أي تمييز غير مبرر وضمان تكامل وعدالة الأنظمة الذكية في التعامل مع جميع شرائح المجتمع.

ويضاف إلى ذلك، مكونات أخرى مهمة مثل الشفافية والشراكة؛ حيث يحتاج الأفراد إلى فهم كيفية استخدام التكنولوجيا الذكية في تقديم الخدمات واتخاذ القرارات، إلى جانب تحديات أخرى في تحديد المسؤولية عن القرارات والأفعال التي يقوم بها النظام الذكي، إضافة إلى النظر في الأثر الاجتماعي والاقتصادي؛ أي يجب توجيه التقنية نحو تحقيق فوائد اجتماعية واقتصادية وتجنب تكريس الفجوات الاجتماعية.

وفي إطار السلامة، يشدد المختصون على ضرورة وضع آليات فعّالة لضمان سلامة الأنظمة ومنع حدوث أخطاء أو أضرار غير متوقعة، وأهمية توجيه التكنولوجيا نحو التنمية المستدامة وضمان استفادة المجتمع منها دون تعريضه لمخاطر أخلاقية أو اجتماعية.

وفي ضوء هذه التحديات، تُبذل جهود دولية لوضع مبادئ أخلاقية مشتركة لتوجيه استخدام الذكاء الاصطناعي، وتشارك العديد من الشركات والمؤسسات العلمية في هذه الجهود، بالإضافة إلى وجود مبادرات من قِبل المنظمات الدولية لتطوير إطار قانوني وأخلاقي لضمان تقدم آمن ومسؤول في ميدان الذكاء الاصطناعي.

توجهات التقنية الاستراتيجية

بحلول عام 2026، من المتوقع أن تشهد التطبيقات الجديدة تزايداً في استخدام التكنولوجيا الذكية، حيث يُتوقع أن تتجاوز نسبة استخدام الذكاء الاصطناعي 30%، ويتيح هذا التقدم للتطبيقات التفاعل مع مستخدميها بشكل أكثر دقة وخصوصية، ويعزز إمكانية دمج عناصر الذكاء لتعزيز إنتاجية العمل وتحسين مستوى الأتمتة في تلك التطبيقات.

وفي ظل التطورات الحالية، يتوقع أن يعتمد نحو 25% من الرؤساء التنفيذيين بحلول عام 2027 على مبادرات القوى العاملة المتصلة والمعززة، وتهدف هذه المبادرات إلى تعزيز كفاءة 50% من الوظائف الرئيسية في الشركات، وذلك من خلال تقليل الوقت اللازم لتنفيذ مهام هذه الوظائف، بالإضافة إلى توقع استخدام ثلثي مهندسي برمجيات المؤسسات في عام 2028 تقنيات الذكاء الاصطناعي لتعزيز عمليات البرمجة، واستفادة مساعدي المبرمجين من تطبيق التقنيات مثل الذكاء الاصطناعي التوليدي والتعلم الآلي لتسهيل عمليات تصميم وبرمجة واختبار التطبيقات.

وفي غضون هذا الوقت، من المنتظر أن يتوفر نحو 15 مليار منتج بقدرة على التفاعل كعميل، إذ تعزز برمجة التطبيقات بشكل كبير فعالية الذكاء الاصطناعي، مما يُسهم في تحسين إنتاجية المطورين ويمكن فرق التطوير من مواكبة الطلب المتزايد على البرمجيات اللازمة لدعم عمليات المؤسسات.

المصدر: جريدة الرؤية العمانية

إقرأ أيضاً:

الذكاء الاصطناعي العام (AGI) الخطوة التالية لقطاع التكنولوجيا..ما المخاطر؟!

في ظل التسارع المذهل في تطوير تقنيات الذكاء الاصطناعي، يتطلع قادة التكنولوجيا والأعمال إلى الخطوة التالية في هذا المجال، وهي "الذكاء العام الاصطناعي" (AGI)، وهو نوع من الذكاء الاصطناعي يتمتع بقدرات إدراكية شبيهة بالبشر.

إن إيجاد طرق جديدة لضمان عدم عمل هذه الآلة -التي تتمتع بمستوى ذكاء البشر نفسه- ضد مصالح البشر،هدف مهم  يسعى إليه الباحثون، ويصبح من الضروري أن تتكاتف الجهود، في الوصول إليه.

وأصدر باحثون في شركة "جوجل ديب مايند" التابعة لجوجل ورقة بحثية جديدة، مكونة من أكثر من 100 صفحة، تشرح طريقة تطوير الذكاء العام الاصطناعي بأمان. بحسب تقرير لموقع "ArsTechnica" المتخصص في أخبار التكنولوجيا.
اقرأ أيضاً..الذكاء الاصطناعي.. من منظور إيجابي 

تشير تقديرات "ديب مايند" إلى إمكانية ظهور AGI خلال السنوات الخمس القادمة، وتحديدًا بحلول عام 2030، مما يستدعي تعاونًا دوليًا عاجلًا لوضع الأطر القانونية والأخلاقية.

لا يملك البشر حتى الآن وسيلة لمنع خروج الذكاء العام الاصطناعي -في حالة الوصول إليه- عن السيطرة، لكن الباحثين في شركة "جوجل ديب مايند" التابعة لجوجل يعملون على هذه المشكلة.

كشف الباحثون عن أربعة مخاطر رئيسية قد تنجم عن تطوير الذكاء الاصطناعي العام (AGI) الشبيه بذكاء الإنسان وقد يؤدي إلى "أضرار جسيمة"، لأجل هذا سعوا إلى فهم مخاطره.

أبرز المخاطر
حدد الباحثون أربعة أنواع محتملة من مخاطر الذكاء العام الاصطناعي، وقدموا اقتراحات حول طرق التخفيف من هذه المخاطر.

وصنّف فريق "ديب مايند" النتائج السلبية للذكاء العام الاصطناعي على أنها سوء الاستخدام، والانحراف، والأخطاء، والمخاطر الهيكلية. وقد ناقش البحث سوء الاستخدام والانحراف بإسهاب، وتناول الأخيران بإيجاز.

 
المشكلة المحتملة الأولى، هي سوء الاستخدام،  بحيث تتشابه بشكل أساسي مع مخاطر الذكاء الاصطناعي الحالية. ومع ذلك، ولأن الذكاء العام الاصطناعي سيكون أقوى بحكم تعريفه، فإن الضرر الذي قد يُلحقه سيكون أكبر بكثير.

وقد يُسيء أي شخص لديه إمكانية الوصول إلى الذكاء العام الاصطناعي استخدام النظام لإلحاق الضرر، على سبيل المثال، من خلال مطالبة النظام بتحديد ثغرات واستغلالها، أو إنشاء فيروس مُصمَّم يمكن استخدامه كسلاح بيولوجي.

قال فريق "ديب مايند" إنه سيتعين على الشركات التي تُطور الذكاء العام الاصطناعي إجراء اختبارات مكثفة ووضع بروتوكولات سلامة قوية لما بعد التدريب. بعبارة أخرى، حواجز أمان معززة للذكاء الاصطناعي.

ويقترح الفريق أيضًا ابتكار طريقة لكبح القدرات الخطيرة تمامًا، تُسمى أحيانًا "إلغاء التعلم" (unlearning)، ولكن من غير الواضح ما إذا كان ذلك ممكنًا من دون تقييد قدرات النماذج بشكل كبير.

أما مشكلة "الانحراف" فهي ليست محل قلق حاليًا مع الذكاء الاصطناعي التوليدي في صورته الحالية. لكن مع الذكاء العام الاصطناعي قد يختلف الأمر.

أخبار ذات صلة رفاهية أكثر في «ياس» بالذكاء الاصطناعي مساعد AI لتحسين سير العمل بالمصانع من مايكروسوفت

تُصور مشكلة "الانحراف" هذه كآلة متمردة تجاوزت القيود التي فرضها عليها مصمموها، كما هو الحال في فيلم "ترميناترو". وبشكل أكثر تحديدًا، يتخذ الذكاء الاصطناعي إجراءات يعلم أنها لا تتماشى مع ما يقصده المطور.

وقالت "ديب مايند" إن معيارها للانحراف في ما يتعلق بالذكاء العام الاصطناعي أكثر تقدمًا من مجرد الخداع أو التخطيط.
حلول مقترحة
لتجنب ذلك، تقترح  "ديب مايند" على المطورين استخدام تقنيات مثل الإشراف المُعزز، حيث تتحقق نسختان من الذكاء الاصطناعي من مخرجات بعضهما البعض، لإنشاء أنظمة قوية من لا يُحتمل أن تنحرف عن مسارها.

وإذا فشل ذلك، تقترح "ديب مايند" إجراء اختبارات ضغط ومراقبة مكثفة لاكتشاف أي مؤشر على أن الذكاء الاصطناعي قد يبدأ في التمرد ضدنا.

وقالت إن إبقاء الذكاء الاصطناعي العام في بيئة افتراضية آمنة للغاية وإشراف بشري مباشر يمكن أن يُساعد في التخفيف من حدة المشكلات الناجمة عن الانحراف.

الأخطاء
من ناحية أخرى، إذا لم يكن الذكاء الاصطناعي يعلم أن مخرجاته ستكون ضارة، ولم يكن المشغل البشري يقصد ذلك، فهذا "خطأ". ويحدث الكثير من هذه الأخطاء مع أنظمة الذكاء الاصطناعي الحالية.مع ذلك، قد تكون هذه المشكلة أصعب مع الذكاء العام الاصطناعي.
تشير "ديب مايند" إلى أن الجيوش قد تنشر الذكاء العام الاصطناعي بسبب "الضغط التنافسي"، لكن هذه الأنظمة قد ترتكب أخطاء جسيمة لأنها ستُكلف بوظائف أكثر تعقيدًا بكثير من الذكاء الاصطناعي الحالي.

توصي الورقة بعدد من الإجراءات الوقائية،  للحد من الأخطاء. باختصار، يتلخص الأمر في عدم السماح للذكاء العام الاصطناعي بأن يصبح قويًا جدًا في المقام الأول.

وتدعو "ديب مايند" إلى نشر الذكاء العام الاصطناعي تدريجيًا والحد من صلاحياته، وتمرير أوامر الذكاء العام الاصطناعي عبر نظام حماية يضمن أن تكون آمنة قبل تنفيذها.

مخاطر هيكلية
تُعرف "ديب مايند" المخاطر الهيكلية على أنها عواقب غير مقصودة، وإن كانت حقيقية، للأنظمة متعددة الوكلاء التي تُسهم في تعقيد حياتنا البشرية.

على سبيل المثال، قد يُنتج الذكاء العام الاصطناعي معلومات مُضلّلة تبدو مُقنعة لدرجة أننا لم نعد نعرف بمن أو بما نثق. كما تُثير الورقة البحثية احتمالية أن يُراكِم الذكاء العام الاصطناعي سيطرة متزايدة على الأنظمة الاقتصادية والسياسية، ربما من خلال وضع مخططات تعريفات جمركية مُفرطة.

وقد تؤدي هذه المخاطر الهيكلية إلى أن نجد في يومٍ ما أن الآلات هي المُسيطرة بدلًا منّا.

وتُعتبر هذه الفئة من المخاطر أيضًا الأصعب في الحماية منها، لأنها ستعتمد على طريقة عمل الأفراد والبنية التحتية والمؤسسات في المستقبل.

لضمان أن يكون الذكاء الاصطناعي العام أداة لخدمة البشرية، لا مصدرًا لتهديدها..كما تشير "ديب مايند"، فإن التقدم نحو AGI قد يكون أسرع مما نتخيل، ما يجعل من وضع الحواجز الأخلاقية والتقنية ضرورة عاجلة لا تحتمل التأجيل.
لمياء الصديق(أبوظبي)

مقالات مشابهة

  • التنمية الإدارية تنظم ورشة تدريبية لمديرين في جهات حكومية حول ‏استخدامات الذكاء الاصطناعي
  • قصور الثقافة تصدر العدد الجديد من مجلة مصر المحروسة حول الذكاء الاصطناعي
  • ترامب يكسر قيود بايدن على الذكاء الاصطناعي ويأمر بالتوسع في استخدامه
  • مجانًا.. كيفية استخدام الذكاء الاصطناعي لتعديل الصور
  • الأردن: الذكاء الاصطناعي يدخل عالم مخالفات السير
  • الذكاء الاصطناعي يرصد مخالفات استخدام الهاتف في الأردن
  • كريمة الحكيم: الشركات ناشئة تستخدم الذكاء الاصطناعي في مختلف المحافظات
  • الذكاء الاصطناعي العام (AGI) الخطوة التالية لقطاع التكنولوجيا..ما المخاطر؟!
  • خدعة أبريل التي صدّقها الذكاء الاصطناعي
  • مطالبات بإصدار تشريعات تنظم استخدام الذكاء الاصطناعي في قطاع التعليم