أول اتفاق بين أمريكا وبريطانيا للسيطرة على الذكاء الاصطناعي
تاريخ النشر: 5th, April 2024 GMT
بعد التوقيع على أول اتفاق دولي بشأن كيفية اختبار وتقييم المخاطر الناجمة عن الذكاء الاصطناعي، تثور التساؤلات حول المرحلة القادمة. والتساؤلات متعلقة تحديدا بالأسباب التي دفعت إلى هذه الخطوة، وكذلك الإجراءات التي من شأن الاتفاق أن يتيحها لكبح جماح التطور المرعب في هذا المجال.
وينص الاتفاق على إنشاء كل من المملكة المتحدة والولايات المتحدة معاهد سلامة الذكاء الاصطناعي التي تهدف إلى تقييم أنظمة الذكاء الاصطناعي المفتوحة والمغلقة المصدر.
وقبل يومين، وقعت الولايات المتحدة والمملكة المتحدة اتفاقا تاريخيا بشأن الذكاء الاصطناعي، حيث أصبح الحلفاء أول دول تتعاون رسميا حول كيفية قيام الحكومتين بتجميع المعرفة التقنية والمعلومات والمواهب في مجال سلامة الذكاء الاصطناعي.
وتمثل الصفقة أول ترتيب ثنائي بشأن سلامة الذكاء الاصطناعي في العالم، وتأتي في الوقت الذي تضغط فيه الحكومات من أجل تنظيم أكبر للمخاطر الوجودية الناجمة عن التكنولوجيا الجديدة، مثل استخدامها في الهجمات السيبرانية الضارة أو تصميم الأسلحة البيولوجية.
وقالت وزيرة العلوم البريطانية ميشيل دونيلان لصحيفة فاينانشيال تايمز "العام المقبل هو الوقت الذي يتعين علينا فيه التصرف بسرعة نظرا لظهور الجيل التالي من نماذج [الذكاء الاصطناعي]، والتي يمكن أن تغير قواعد اللعبة بالكامل، ونحن لا نعرف القدرات الكاملة التي ستقدمها بعد".
وستمكن الاتفاقية على وجه التحديد معهد سلامة الذكاء الاصطناعي الجديد في المملكة المتحدة (AISI)، الذي أنشئ في نوفمبر/تشرين الثاني، ونظيره في الولايات المتحدة، والذي لم يبدأ عمله بعد، من تبادل الخبرات من خلال انتداب باحثين من كلا البلدين. وستعمل المعاهد أيضا معا على كيفية التقييم المستقل لنماذج الذكاء الاصطناعي الخاصة التي أنشأتها شركات مثل OpenAI وGoogle.
وتم تصميم الشراكة على غرار الشراكة بين مقر الاتصالات الحكومية في المملكة المتحدة (GCHQ) ووكالة الأمن القومي الأمريكية، اللذين يعملان معًا بشكل وثيق في المسائل المتعلقة بالاستخبارات والأمن.
وقالت دونيلان: "إن حقيقة قيام الولايات المتحدة، وهي قوة كبيرة في مجال الذكاء الاصطناعي، بتوقيع هذه الاتفاقية معنا، توضح الكثير عن الطريقة التي نقود بها الطريق في مجال سلامة الذكاء الاصطناعي".
وأضافت أنه نظرًا لأن العديد من شركات الذكاء الاصطناعي الأكثر تقدمًا تقع حاليًا في الولايات المتحدة، فإن خبرة الحكومة الأمريكية كانت أساسية لفهم مخاطر الذكاء الاصطناعي ولإلزام الشركات بالتزاماتها.
ومع ذلك، أصر دونيلان على أنه على الرغم من إجراء بحث حول سلامة الذكاء الاصطناعي والتأكد من وجود حواجز الحماية، فإن المملكة المتحدة لا تخطط لتنظيم التكنولوجيا على نطاق أوسع على المدى القريب لأنها تتطور بسرعة كبيرة.
وفي وقت سابق، أقر الاتحاد الأوروبي قانون الذكاء الاصطناعي، والذي يعتبر النظام الأكثر صرامة فيما يتعلق باستخدام الذكاء الاصطناعي في العالم. أصدر الرئيس الأمريكي جو بايدن أمرا تنفيذيا يستهدف نماذج الذكاء الاصطناعي التي قد تهدد الأمن القومي. وأصدرت الصين مبادئ توجيهية تسعى إلى ضمان أن التكنولوجيا لا تتحدى نظام الرقابة القائم منذ فترة طويلة.
من جهتها قالت وزيرة التجارة الأمريكية جينا ريموندو: "توضح شراكتنا أننا لا نهرب من هذه المخاوف، بل نركض نحوها. وبفضل تعاوننا، ستكتسب معاهدنا فهمًا أفضل لأنظمة الذكاء الاصطناعي، وستجري تقييمات أكثر قوة، وستصدر إرشادات أكثر صرامة.
ووفقا لتقرير نشرته "بي بي سي"، فقد شهد هذا الحدث رؤساء الذكاء الاصطناعي، بمن في ذلك سام ألتمان من OpenAI، وديميس هاسابيس من Google DeepMind، وملياردير التكنولوجيا إيلون ماسك.
وفي حين أن الأمور بدت هادئة على جبهة سلامة الذكاء الاصطناعي منذ القمة، إلا أن قطاع الذكاء الاصطناعي نفسه كان مشغولاً للغاية. فلا تزال المنافسة شرسة بين أكبر روبوتات الدردشة المدعومة بالذكاء الاصطناعي، مثل ChatGPT، وGemini، وClaude.
ويتفاجأ العديد من الخبراء بمدى سرعة تطور الذكاء الاصطناعي، ويخشون أن يكون نموه السريع خطيرًا. حتى أن البعض قال إنه يجب إيقاف أبحاث الذكاء الاصطناعي.
وفي وقت سابق من شهر أكتوبر/تشرين الأول الماضي، نشرت حكومة المملكة المتحدة تقريرًا قال إن الذكاء الاصطناعي قد يساعد قريبًا المتسللين على شن هجمات إلكترونية أو مساعدة الإرهابيين في التخطيط لهجمات كيميائية.
حتى إن بعض الخبراء يشعرون بالقلق من أن الذكاء الاصطناعي الفائق الذكاء قد يؤدي في المستقبل إلى انقراض البشر. وفي شهر مايو/أيار من العام الماضي حظي تحذير مركز سلامة الذكاء الاصطناعي ومقره الولايات المتحدة بشأن هذا التهديد بدعم العشرات من كبار المتخصصين في مجال التكنولوجيا.
والمخاوف المماثلة يتقاسمها اثنان من العلماء الثلاثة المعروفين باسم الأب الروحي للذكاء الاصطناعي لأبحاثهم الرائدة، جيفري هينتون ويوشوا بينجيو.
لكن الآخر (يان ليكون) رفض فكرة أن الذكاء الاصطناعي الفائق الذكاء قد يسيطر على العالم، ووصفها بأنها "سخيفة إلى حد غير معقول".
وقالت مارجريت فيستاجر، رئيسة التكنولوجيا في الاتحاد الأوروبي، لـ"بي بي سي" إن قدرة الذكاء الاصطناعي على تضخيم التحيز أو التمييز كانت مصدر قلق أكثر إلحاحا من المخاوف المستقبلية بشأن استحواذ الذكاء الاصطناعي.
وعلى وجه الخصوص، فهي قلقة بشأن الدور الذي يمكن أن يلعبه الذكاء الاصطناعي في اتخاذ القرارات التي تؤثر على سبل عيش الناس مثل طلبات القروض.
المصدر: السومرية العراقية
كلمات دلالية: سلامة الذکاء الاصطناعی الولایات المتحدة المملکة المتحدة فی مجال
إقرأ أيضاً:
أوبن إيه آي تغير تكتيكها في تدريب نماذج الذكاء الاصطناعي
قررت شركة "أوبن إيه آي" تغيير تكتيكها في تدريب نماذج الذكاء الاصطناعي للوصول إلى ما وصفتها بـ"الحرية الفكرية" بغض النظر عن الأخطار أو التحديات التي يثيرها هذا الموضوع، إذ سيصبح "شات جي بي تي" قادرا على تقديم إجابات ووجهات نظر كانت محظورة في السابق، وستقل المواضيع التي لن يتحدث عنها الروبوت الدردشة الذكي، وفقا لتقرير نشره موقع "تيك كرانش".
ويرى محللون أن هذا القرار يُعد جزءا من جهود "أوبن إيه آي" في كسب رضا إدارة ترامب الجديدة، ومن جهة أخرى تشير إلى توسع كبير في وادي السيليكون فيما يخص سلامة الذكاء الاصطناعي.
وقد أعلنت "أوبن إيه آي" عن تحديث مواصفات نماذجها من خلال وثيقة تتكون من 187 صفحة، حددت فيها طريقة تدريب نماذج الذكاء الاصطناعي على التصرف، كما كشفت عن مبدأ توجيهي جديد وهو "لا تكذب، سواء من خلال تقديم بيانات غير صحيحة أو من خلال حذف سياق مهم".
وفي قسم جديد يسمى "لنبحث عن الحقيقة معا"، تقول الشركة إنها لا تريد من "شات جي بي تي" أن يتخذ موقفا تحريريا أو رأيا محددا حتى لو اعتبر بعض المستخدمين ذلك غير أخلاقي أو مسيئا، وهذا يعني أن روبوت الدردشة سيقدم وجهات نظر متعددة حول المواضيع المثيرة للجدل، بشكل يكون فيه محايدا وغير منحاز إلى طرف معين، على سبيل المثال يجب أن يذكر أن "حياة السود مهمة" ويتابع أن "حياة الجميع مهمة أيضا"، بدلا من رفض الإجابة أو اتخاذ جانب سياسي في الإجابة، فالشركة تريد أن يؤكد حبه للبشرية جمعاء، ثم يُقدم سياقا حول كل قضية.
إعلانوتقول الشركة في الوثيقة: "قد يكون هذا المبدأ مثيرا للجدل، لأنه يشير إلى أن مساعد الذكاء الاصطناعي قد يبقى محايدا في مواضيع يعتبرها البعض غير أخلاقية أو مسيئة، ومع ذلك فإن الهدف من روبوت الدردشة هو مساعدة الإنسانية وليس تشكيلها".
وأوضحت "أوبن إيه آي" أن هذا التكتيك الجديد لا يعني أن "شات جي بي تي" أصبح منفتحا بشكل كامل، بل سيظل يرفض الإجابة عن الأسئلة غير الأخلاقية، التي تحرض على الخطأ ويرفض الرد بطريقة تدعم الأكاذيب الواضحة.
ويمكن اعتبار هذه التغييرات ردا على الانتقادات بشأن تدابير الأمان في "شات جي بي تي"، التي بدت منحازة نحو اليسار المعتدل، ومع ذلك رفض المتحدث باسم "أوبن إيه آي" فكرة أن الشركة أجرت هذه التغييرات لإرضاء ترامب، وأوضح أن تبني الحرية الفكرية يعكس اعتقادات الشركة في منح المستخدمين مزيدا من السيطرة، ولكن ليس الجميع يرى الأمر بهذه الطريقة.