أول اتفاق بين أمريكا وبريطانيا للسيطرة على الذكاء الاصطناعي
تاريخ النشر: 5th, April 2024 GMT
بعد التوقيع على أول اتفاق دولي بشأن كيفية اختبار وتقييم المخاطر الناجمة عن الذكاء الاصطناعي، تثور التساؤلات حول المرحلة القادمة. والتساؤلات متعلقة تحديدا بالأسباب التي دفعت إلى هذه الخطوة، وكذلك الإجراءات التي من شأن الاتفاق أن يتيحها لكبح جماح التطور المرعب في هذا المجال.
وينص الاتفاق على إنشاء كل من المملكة المتحدة والولايات المتحدة معاهد سلامة الذكاء الاصطناعي التي تهدف إلى تقييم أنظمة الذكاء الاصطناعي المفتوحة والمغلقة المصدر.
وقبل يومين، وقعت الولايات المتحدة والمملكة المتحدة اتفاقا تاريخيا بشأن الذكاء الاصطناعي، حيث أصبح الحلفاء أول دول تتعاون رسميا حول كيفية قيام الحكومتين بتجميع المعرفة التقنية والمعلومات والمواهب في مجال سلامة الذكاء الاصطناعي.
وتمثل الصفقة أول ترتيب ثنائي بشأن سلامة الذكاء الاصطناعي في العالم، وتأتي في الوقت الذي تضغط فيه الحكومات من أجل تنظيم أكبر للمخاطر الوجودية الناجمة عن التكنولوجيا الجديدة، مثل استخدامها في الهجمات السيبرانية الضارة أو تصميم الأسلحة البيولوجية.
وقالت وزيرة العلوم البريطانية ميشيل دونيلان لصحيفة فاينانشيال تايمز "العام المقبل هو الوقت الذي يتعين علينا فيه التصرف بسرعة نظرا لظهور الجيل التالي من نماذج [الذكاء الاصطناعي]، والتي يمكن أن تغير قواعد اللعبة بالكامل، ونحن لا نعرف القدرات الكاملة التي ستقدمها بعد".
وستمكن الاتفاقية على وجه التحديد معهد سلامة الذكاء الاصطناعي الجديد في المملكة المتحدة (AISI)، الذي أنشئ في نوفمبر/تشرين الثاني، ونظيره في الولايات المتحدة، والذي لم يبدأ عمله بعد، من تبادل الخبرات من خلال انتداب باحثين من كلا البلدين. وستعمل المعاهد أيضا معا على كيفية التقييم المستقل لنماذج الذكاء الاصطناعي الخاصة التي أنشأتها شركات مثل OpenAI وGoogle.
وتم تصميم الشراكة على غرار الشراكة بين مقر الاتصالات الحكومية في المملكة المتحدة (GCHQ) ووكالة الأمن القومي الأمريكية، اللذين يعملان معًا بشكل وثيق في المسائل المتعلقة بالاستخبارات والأمن.
وقالت دونيلان: "إن حقيقة قيام الولايات المتحدة، وهي قوة كبيرة في مجال الذكاء الاصطناعي، بتوقيع هذه الاتفاقية معنا، توضح الكثير عن الطريقة التي نقود بها الطريق في مجال سلامة الذكاء الاصطناعي".
وأضافت أنه نظرًا لأن العديد من شركات الذكاء الاصطناعي الأكثر تقدمًا تقع حاليًا في الولايات المتحدة، فإن خبرة الحكومة الأمريكية كانت أساسية لفهم مخاطر الذكاء الاصطناعي ولإلزام الشركات بالتزاماتها.
ومع ذلك، أصر دونيلان على أنه على الرغم من إجراء بحث حول سلامة الذكاء الاصطناعي والتأكد من وجود حواجز الحماية، فإن المملكة المتحدة لا تخطط لتنظيم التكنولوجيا على نطاق أوسع على المدى القريب لأنها تتطور بسرعة كبيرة.
وفي وقت سابق، أقر الاتحاد الأوروبي قانون الذكاء الاصطناعي، والذي يعتبر النظام الأكثر صرامة فيما يتعلق باستخدام الذكاء الاصطناعي في العالم. أصدر الرئيس الأمريكي جو بايدن أمرا تنفيذيا يستهدف نماذج الذكاء الاصطناعي التي قد تهدد الأمن القومي. وأصدرت الصين مبادئ توجيهية تسعى إلى ضمان أن التكنولوجيا لا تتحدى نظام الرقابة القائم منذ فترة طويلة.
من جهتها قالت وزيرة التجارة الأمريكية جينا ريموندو: "توضح شراكتنا أننا لا نهرب من هذه المخاوف، بل نركض نحوها. وبفضل تعاوننا، ستكتسب معاهدنا فهمًا أفضل لأنظمة الذكاء الاصطناعي، وستجري تقييمات أكثر قوة، وستصدر إرشادات أكثر صرامة.
ووفقا لتقرير نشرته "بي بي سي"، فقد شهد هذا الحدث رؤساء الذكاء الاصطناعي، بمن في ذلك سام ألتمان من OpenAI، وديميس هاسابيس من Google DeepMind، وملياردير التكنولوجيا إيلون ماسك.
وفي حين أن الأمور بدت هادئة على جبهة سلامة الذكاء الاصطناعي منذ القمة، إلا أن قطاع الذكاء الاصطناعي نفسه كان مشغولاً للغاية. فلا تزال المنافسة شرسة بين أكبر روبوتات الدردشة المدعومة بالذكاء الاصطناعي، مثل ChatGPT، وGemini، وClaude.
ويتفاجأ العديد من الخبراء بمدى سرعة تطور الذكاء الاصطناعي، ويخشون أن يكون نموه السريع خطيرًا. حتى أن البعض قال إنه يجب إيقاف أبحاث الذكاء الاصطناعي.
وفي وقت سابق من شهر أكتوبر/تشرين الأول الماضي، نشرت حكومة المملكة المتحدة تقريرًا قال إن الذكاء الاصطناعي قد يساعد قريبًا المتسللين على شن هجمات إلكترونية أو مساعدة الإرهابيين في التخطيط لهجمات كيميائية.
حتى إن بعض الخبراء يشعرون بالقلق من أن الذكاء الاصطناعي الفائق الذكاء قد يؤدي في المستقبل إلى انقراض البشر. وفي شهر مايو/أيار من العام الماضي حظي تحذير مركز سلامة الذكاء الاصطناعي ومقره الولايات المتحدة بشأن هذا التهديد بدعم العشرات من كبار المتخصصين في مجال التكنولوجيا.
والمخاوف المماثلة يتقاسمها اثنان من العلماء الثلاثة المعروفين باسم الأب الروحي للذكاء الاصطناعي لأبحاثهم الرائدة، جيفري هينتون ويوشوا بينجيو.
لكن الآخر (يان ليكون) رفض فكرة أن الذكاء الاصطناعي الفائق الذكاء قد يسيطر على العالم، ووصفها بأنها "سخيفة إلى حد غير معقول".
وقالت مارجريت فيستاجر، رئيسة التكنولوجيا في الاتحاد الأوروبي، لـ"بي بي سي" إن قدرة الذكاء الاصطناعي على تضخيم التحيز أو التمييز كانت مصدر قلق أكثر إلحاحا من المخاوف المستقبلية بشأن استحواذ الذكاء الاصطناعي.
وعلى وجه الخصوص، فهي قلقة بشأن الدور الذي يمكن أن يلعبه الذكاء الاصطناعي في اتخاذ القرارات التي تؤثر على سبل عيش الناس مثل طلبات القروض.
المصدر: السومرية العراقية
كلمات دلالية: سلامة الذکاء الاصطناعی الولایات المتحدة المملکة المتحدة فی مجال
إقرأ أيضاً:
القاهرة الإخبارية تعرض تقريرا عن مستقبل الذكاء الاصطناعي في أمريكا بعد عودة ترامب
سلطت قناة القاهرة الإخبارية، الضوء على أهمية ملف الذكاء الاصطناعي ومستقبله مع عودة الرئيس الأمريكي المنتخب دونالد ترامب للبيت الأبيض، وذلك خلال تقرير تليفزيوني بعنوان «مع عودة ترامب للرئاسة.. كيف سيكون مستقبل الذكاء الاصطناعي في أمريكا؟».
وأفاد التقرير أنه مع إعلان فوز دونالد ترامب برئاسة الولايات المتحدة، سادت حالة من الترقب بين المستثمرين لما ستسفر عنه سياسة إدارته المقبلة، خاصة في قطاع التكنولوجيا الذي عانى من ضغوطات كبيرة خلال فترة رئاسته السابقة.
آثار بالغة على الشركات التقنيةوحسب التقرير، خلفت التوترات التجارية لاسيما مع الصين، آثارا بالغة على العديد من الشركات التقنية، ما آثار مخاوف بشأن اضطرابات في سلاسل الإمداد وارتفاع تكاليف التصنيع، وفي المقابل شهدت الولايات المتحدة تركيزا كبيرا على تعزيز الاقتصاد المحلي والتنافسات العالمية، ما قد يعني مزيدا من الدعم لقطاع التكنولوجيا بعد عودة ترامب إلى الحكومة.
تعامل ترامب مع تحديات العصر التكنولوجيوتابع التقرير «ولكن التساؤل الأكبر، هو كيف سيتعامل ترامب مع تحديات العصر التكنولوجي المتسارع، فمن المتوقع أن تواجه إدارته ضغوطا متزايدة لتنظيم الذكاء الاصطناعي».