يمثل اليوم بداية حقبة جديدة في التنمية الدولية. في خطوة مذهلة، قام بيل جيتس، الرئيس المشارك لمؤسسة بيل وميليندا جيتس، بتسريح جميع موظفي مؤسسة جيتس واستبدالهم بـ Copilot، وهو حل الذكاء الاصطناعي المولد من Microsoft.

وفي رسالة تم إنشاؤها بواسطة الكمبيوتر تم إرسالها إلى الموظفين، نُقل عنه قوله:

أنا متحمس للتأثير الذي سيحدثه الذكاء الاصطناعي على القضايا التي تعمل عليها مؤسسة جيتس.

إن أي تكنولوجيا جديدة مزعجة إلى هذا الحد من شأنها أن تجعل الناس يشعرون بعدم الارتياح، وهذا ينطبق بالتأكيد على الذكاء الاصطناعي. سيقوم الوكلاء على مستوى الشركة بتمكين الموظفين بطرق جديدة. تصف Microsoft هذا بأنه يحتوي على مساعد طيار. من خلال دمجه بالكامل في منتجات مثل Office، سيعزز الذكاء الاصطناعي عملك.

استبدال طاقم المؤسسة بمساعد الطيار
يقال إن بيل جيتس قد اعترف بأن حلول الذكاء الاصطناعي التوليدية الحالية متحيزة، ولكنها ليست أقل تحيزًا من الموظفين البشريين الذين وظفهم في المؤسسة. وعلى عكس البشر، لا يطلب GenAI إجازات، ولا يطلب زيادة في الراتب، ولا يسأل عن أصدقائك.

كان بيل جيتس إيجابيًا للغاية بشأن التأثير الذي ستحدثه GenAI على العمل الخيري في عام 2024، حيث قال سابقًا:

في عالم محدود الموارد، عليك أن تجد طرقًا لتحقيق أقصى قدر من التأثير. الابتكار هو المفتاح لتحقيق أقصى استفادة من كل دولار يتم إنفاقه. الذكاء الاصطناعي على وشك تسريع معدل الاكتشافات الجديدة بوتيرة لم نشهدها من قبل. وأصبح من الواضح أكثر من أي وقت مضى كيف يمكن استخدام الذكاء الاصطناعي لتحسين الوصول إلى التعليم والصحة العقلية وغير ذلك الكثير.

كما اعتقد أيضًا أن مبلغ 870 مليون دولار الذي تنفقه مؤسسة جيتس على الموظفين كل عام هو إهدار، في حين أن Microsoft Copilot، أول محرك إجابات يعمل بالذكاء الاصطناعي في العالم، لديه إجابات محددة على أسئلة معقدة مثل:

ما هو الحل للفقر العالمي؟
أين سينشأ الوباء العالمي القادم؟
ما هو أفضل استثمار في التعليم؟
كيف يمكن لمؤسسة جيتس تحسين نتائج الصحة العالمية؟
التأثير على النظام البيئي للمانحين
أصيب المانحون الرئيسيون الآخرون بالصدمة من تحرك مؤسسة جيتس لاستبدال جميع الموظفين بحلول الذكاء الاصطناعي. واعترفوا بأنه من الصعب للغاية توظيف موظفين يتمتعون بمهارات الذكاء الاصطناعي، فحتى الهيئات التنظيمية الحكومية المكلفة بإدارة ابتكارات الذكاء الاصطناعي لا تستطيع في كثير من الأحيان تحمل تكاليف توظيف الموظفين المكلفين بوضع لوائح الذكاء الاصطناعي.

ومع ذلك، كما قال أحد الموظفين ساخرًا: "إن إقالة الموظفين ليست استخدامًا مسؤولاً للذكاء الاصطناعي".

على النقيض من تصرفات بيل جيتس، أصدر البيت الأبيض أمرًا تنفيذيًا بشأن الذكاء الاصطناعي يتطلب على وجه التحديد من حكومة الولايات المتحدة تطوير فريق عمل للمواهب في مجال الذكاء الاصطناعي والتكنولوجيا من شأنه تسريع وتتبع توظيف المواهب في مجال الذكاء الاصطناعي وتمكين الذكاء الاصطناعي في جميع أنحاء الولايات المتحدة. حكومة.

في الواقع، لدى الوكالة الأمريكية للتنمية الدولية بالفعل مبادرة للذكاء الاصطناعي تشمل أبل، وأمازون، وجوجل. تقوم الوكالة الأمريكية للتنمية الدولية أيضًا بتعيين كبير مسؤولي البيانات كجزء من زيادة مواهب الذكاء الاصطناعي على مستوى الحكومة لتسريع وضع المواهب الرئيسية في مجال الذكاء الاصطناعي وتمكين الذكاء الاصطناعي في المجالات ذات الأولوية العالية وتعزيز استراتيجيات البيانات والتكنولوجيا الخاصة بالوكالات.

فوائد مغادرة موظفي المؤسسة
شوهد موظفو مؤسسة جيتس وهم يتجولون بلا هدف حول حرمهم الجامعي الواسع هذا الصباح، وما زالوا مندهشين من إقالتهم المفاجئة. بمجرد قبولهم للتغيير، سيتم منحهم مجموعة متنوعة من خدمات الاستشارة المهنية للعثور على وظيفتهم التالية، بما في ذلك:

Microsoft Copilot: تستخدم أداة الذكاء الاصطناعي هذه تقنيات متقدمة لتوفير إرشادات وأطر عمل للبحث عن الوظائف، مثل إضافة كلمات عمل قوية إلى السير الذاتية.
RightJoin: منصة لإجراء المقابلات الوهمية تعتمد على الذكاء الاصطناعي وتسمح لك بالتدرب على المقابلات مع مدير توظيف يعمل بالذكاء الاصطناعي مع تقديم تعليقات حول لغة الجسد ونبرة الصوت.
LinkedIn Premium: أداة تواصل قوية يمكنها مساعدتك في العثور على فرص عمل، والتواصل مع المتخصصين في هذا المجال، وعرض تجربتك المهنية باستخدام الذكاء الاصطناعي.
 

المصدر: بوابة الوفد

إقرأ أيضاً:

الذكاء الاصطناعي العام (AGI) الخطوة التالية لقطاع التكنولوجيا..ما المخاطر؟!

في ظل التسارع المذهل في تطوير تقنيات الذكاء الاصطناعي، يتطلع قادة التكنولوجيا والأعمال إلى الخطوة التالية في هذا المجال، وهي "الذكاء العام الاصطناعي" (AGI)، وهو نوع من الذكاء الاصطناعي يتمتع بقدرات إدراكية شبيهة بالبشر.

إن إيجاد طرق جديدة لضمان عدم عمل هذه الآلة -التي تتمتع بمستوى ذكاء البشر نفسه- ضد مصالح البشر،هدف مهم  يسعى إليه الباحثون، ويصبح من الضروري أن تتكاتف الجهود، في الوصول إليه.

وأصدر باحثون في شركة "جوجل ديب مايند" التابعة لجوجل ورقة بحثية جديدة، مكونة من أكثر من 100 صفحة، تشرح طريقة تطوير الذكاء العام الاصطناعي بأمان. بحسب تقرير لموقع "ArsTechnica" المتخصص في أخبار التكنولوجيا.
اقرأ أيضاً..الذكاء الاصطناعي.. من منظور إيجابي 

تشير تقديرات "ديب مايند" إلى إمكانية ظهور AGI خلال السنوات الخمس القادمة، وتحديدًا بحلول عام 2030، مما يستدعي تعاونًا دوليًا عاجلًا لوضع الأطر القانونية والأخلاقية.

لا يملك البشر حتى الآن وسيلة لمنع خروج الذكاء العام الاصطناعي -في حالة الوصول إليه- عن السيطرة، لكن الباحثين في شركة "جوجل ديب مايند" التابعة لجوجل يعملون على هذه المشكلة.

كشف الباحثون عن أربعة مخاطر رئيسية قد تنجم عن تطوير الذكاء الاصطناعي العام (AGI) الشبيه بذكاء الإنسان وقد يؤدي إلى "أضرار جسيمة"، لأجل هذا سعوا إلى فهم مخاطره.

أبرز المخاطر
حدد الباحثون أربعة أنواع محتملة من مخاطر الذكاء العام الاصطناعي، وقدموا اقتراحات حول طرق التخفيف من هذه المخاطر.

وصنّف فريق "ديب مايند" النتائج السلبية للذكاء العام الاصطناعي على أنها سوء الاستخدام، والانحراف، والأخطاء، والمخاطر الهيكلية. وقد ناقش البحث سوء الاستخدام والانحراف بإسهاب، وتناول الأخيران بإيجاز.

 
المشكلة المحتملة الأولى، هي سوء الاستخدام،  بحيث تتشابه بشكل أساسي مع مخاطر الذكاء الاصطناعي الحالية. ومع ذلك، ولأن الذكاء العام الاصطناعي سيكون أقوى بحكم تعريفه، فإن الضرر الذي قد يُلحقه سيكون أكبر بكثير.

وقد يُسيء أي شخص لديه إمكانية الوصول إلى الذكاء العام الاصطناعي استخدام النظام لإلحاق الضرر، على سبيل المثال، من خلال مطالبة النظام بتحديد ثغرات واستغلالها، أو إنشاء فيروس مُصمَّم يمكن استخدامه كسلاح بيولوجي.

قال فريق "ديب مايند" إنه سيتعين على الشركات التي تُطور الذكاء العام الاصطناعي إجراء اختبارات مكثفة ووضع بروتوكولات سلامة قوية لما بعد التدريب. بعبارة أخرى، حواجز أمان معززة للذكاء الاصطناعي.

ويقترح الفريق أيضًا ابتكار طريقة لكبح القدرات الخطيرة تمامًا، تُسمى أحيانًا "إلغاء التعلم" (unlearning)، ولكن من غير الواضح ما إذا كان ذلك ممكنًا من دون تقييد قدرات النماذج بشكل كبير.

أما مشكلة "الانحراف" فهي ليست محل قلق حاليًا مع الذكاء الاصطناعي التوليدي في صورته الحالية. لكن مع الذكاء العام الاصطناعي قد يختلف الأمر.

أخبار ذات صلة رفاهية أكثر في «ياس» بالذكاء الاصطناعي مساعد AI لتحسين سير العمل بالمصانع من مايكروسوفت

تُصور مشكلة "الانحراف" هذه كآلة متمردة تجاوزت القيود التي فرضها عليها مصمموها، كما هو الحال في فيلم "ترميناترو". وبشكل أكثر تحديدًا، يتخذ الذكاء الاصطناعي إجراءات يعلم أنها لا تتماشى مع ما يقصده المطور.

وقالت "ديب مايند" إن معيارها للانحراف في ما يتعلق بالذكاء العام الاصطناعي أكثر تقدمًا من مجرد الخداع أو التخطيط.
حلول مقترحة
لتجنب ذلك، تقترح  "ديب مايند" على المطورين استخدام تقنيات مثل الإشراف المُعزز، حيث تتحقق نسختان من الذكاء الاصطناعي من مخرجات بعضهما البعض، لإنشاء أنظمة قوية من لا يُحتمل أن تنحرف عن مسارها.

وإذا فشل ذلك، تقترح "ديب مايند" إجراء اختبارات ضغط ومراقبة مكثفة لاكتشاف أي مؤشر على أن الذكاء الاصطناعي قد يبدأ في التمرد ضدنا.

وقالت إن إبقاء الذكاء الاصطناعي العام في بيئة افتراضية آمنة للغاية وإشراف بشري مباشر يمكن أن يُساعد في التخفيف من حدة المشكلات الناجمة عن الانحراف.

الأخطاء
من ناحية أخرى، إذا لم يكن الذكاء الاصطناعي يعلم أن مخرجاته ستكون ضارة، ولم يكن المشغل البشري يقصد ذلك، فهذا "خطأ". ويحدث الكثير من هذه الأخطاء مع أنظمة الذكاء الاصطناعي الحالية.مع ذلك، قد تكون هذه المشكلة أصعب مع الذكاء العام الاصطناعي.
تشير "ديب مايند" إلى أن الجيوش قد تنشر الذكاء العام الاصطناعي بسبب "الضغط التنافسي"، لكن هذه الأنظمة قد ترتكب أخطاء جسيمة لأنها ستُكلف بوظائف أكثر تعقيدًا بكثير من الذكاء الاصطناعي الحالي.

توصي الورقة بعدد من الإجراءات الوقائية،  للحد من الأخطاء. باختصار، يتلخص الأمر في عدم السماح للذكاء العام الاصطناعي بأن يصبح قويًا جدًا في المقام الأول.

وتدعو "ديب مايند" إلى نشر الذكاء العام الاصطناعي تدريجيًا والحد من صلاحياته، وتمرير أوامر الذكاء العام الاصطناعي عبر نظام حماية يضمن أن تكون آمنة قبل تنفيذها.

مخاطر هيكلية
تُعرف "ديب مايند" المخاطر الهيكلية على أنها عواقب غير مقصودة، وإن كانت حقيقية، للأنظمة متعددة الوكلاء التي تُسهم في تعقيد حياتنا البشرية.

على سبيل المثال، قد يُنتج الذكاء العام الاصطناعي معلومات مُضلّلة تبدو مُقنعة لدرجة أننا لم نعد نعرف بمن أو بما نثق. كما تُثير الورقة البحثية احتمالية أن يُراكِم الذكاء العام الاصطناعي سيطرة متزايدة على الأنظمة الاقتصادية والسياسية، ربما من خلال وضع مخططات تعريفات جمركية مُفرطة.

وقد تؤدي هذه المخاطر الهيكلية إلى أن نجد في يومٍ ما أن الآلات هي المُسيطرة بدلًا منّا.

وتُعتبر هذه الفئة من المخاطر أيضًا الأصعب في الحماية منها، لأنها ستعتمد على طريقة عمل الأفراد والبنية التحتية والمؤسسات في المستقبل.

لضمان أن يكون الذكاء الاصطناعي العام أداة لخدمة البشرية، لا مصدرًا لتهديدها..كما تشير "ديب مايند"، فإن التقدم نحو AGI قد يكون أسرع مما نتخيل، ما يجعل من وضع الحواجز الأخلاقية والتقنية ضرورة عاجلة لا تحتمل التأجيل.
لمياء الصديق(أبوظبي)

مقالات مشابهة

  • الذكاء الاصطناعي العام (AGI) الخطوة التالية لقطاع التكنولوجيا..ما المخاطر؟!
  • طاقم تحكيمي عراقي لقيادة نصف نهائي دوري أبطال آسيا 2
  • خدعة أبريل التي صدّقها الذكاء الاصطناعي
  • بيل غيتس يكشف عن 3 مهن ستصمد في وجه الذكاء الاصطناعي
  • اختبار جديد للذكاء الاصطناعي يحدث ثورة في تشخيص أمراض القلب
  • الإمارات تشارك في القمة العالمية للذكاء الاصطناعي برواندا
  • الإمارات تشارك في القمة العالمية للذكاء الاصطناعي في رواندا
  • Copilot Search.. مايكروسوفت تنافس جوجل بإطلاق ميزة البحث بالذكاء الاصطناعي
  • موظفة تقاطع كلمة رئيس مايكروسوفت للذكاء الاصطناعي وتصرخ: عار عليك
  • بيل جيتس يتأمل أروع كود برمجي كتبه في حياته بـ مايكروسوفت