الصين وأمريكا والاتحاد الأوروبي يوقعون أول إعلان عالمي بشأن مخاطر الذكاء الاصطناعي
تاريخ النشر: 1st, November 2023 GMT
شفق نيوز/ وقّعت الصين والولايات المتحدة والاتحاد الأوروبي ونحو عشرين دولة في بريطانيا، يوم الأربعاء، إعلان "بليتشلي" من أجل تطوير "آمن" للذكاء الاصطناعي، خلال القمة الدولية الأولى حول التطور السريع لهذه التكنولوجيا.
وذكرت وكالة "فرانس برس" أن الاتحاد الأوروبي و28 دولة اجتمع ممثلون عنها في "بليتشلي بارك" في شمال العاصمة البريطانية لندن، اتفقوا على "الحاجة الملحة إلى فهم وإدارة المخاطر المحتملة للذكاء الاصطناعي بشكل جماعي من خلال جهد عالمي جديد لضمان تطوير الذكاء الاصطناعي ونشره بطريقة آمنة ومسؤولة".
ورحب رئيس الوزراء البريطاني ريشي سوناك عبر شبكة "X" (تويتر سابقاً) بهذا الإعلان قائلاً إن "هذا الإعلان التاريخي يمثل بداية جهد عالمي جديد لبناء ثقة الجمهور في الذكاء الاصطناعي من خلال ضمان سلامته".
وفي مواجهة الإمكانات المتزايدة لبرمجيات مثل "تشات جي بي تي"، فإن إعلان بليتشلي "يُظهر أنه لأول مرة، يجتمع العالم لتحديد المشكلة وإبراز الفرص المتصلة بها"، وفق ما أكدت وزيرة التكنولوجيا البريطانية ميشال دونيلان لوكالة "فرانس برس".
وأوضحت الوزيرة البريطانية أن هذا الاجتماع "لا يهدف إلى وضع الأسس للتشريعات العالمية، بل يجب أن يعمل على رسم طريق للمضي قدماً في هذا المجال".
وأضافت من هذا الموقع ذي الرمزية الكبيرة والذي كان يضم مركز فك الشفرات في الحرب العالمية الثانية، أن هذه القمة ستُستتبع بقمتين دوليتين حول الذكاء الاصطناعي، الأولى في كوريا الجنوبية في غضون ستة أشهر، ثم في فرنسا في غضون عام.
وعلى مدار يومين، يجتمع القادة السياسيون وخبراء الذكاء الاصطناعي وعمالقة التكنولوجيا بمبادرة من المملكة المتحدة، التي تريد أن تأخذ زمام المبادرة في التعاون العالمي في هذه التكنولوجيا.
في الوقت نفسه، من المقرر أن تعلن نائبة الرئيس الأميركي، كامالا هاريس، في كلمة لها في لندن، عن إنشاء معهد لأمن الذكاء الاصطناعي في واشنطن.
هذا المعهد -المشابه لذلك الذي أعلنت المملكة المتحدة أيضاً عن إنشائه- سيجمع الخبراء المسؤولين عن وضع "مبادئ توجيهية" وتقييم نماذج الذكاء الاصطناعي الأكثر تقدماً من أجل "تحديد المخاطر وتخفيفها"، وفق البيت الأبيض.
وقد حقق الذكاء الاصطناعي التوليدي، القادر على إنتاج نص أو أصوات أو صور بناءً على طلب بسيط في غضون ثوانٍ، تقدّماً مبهراً في السنوات الأخيرة، ويُتوقع أن تظهر الأجيال الجديدة من هذه النماذج في الأشهر المقبلة.
وحذرت الحكومة البريطانية في تقرير نُشر الخميس الماضي، من أن هذه التكنولوجيا التي تثير آمالاً كبيرة في الطب أو التعليم، قد تشكل أيضاً "تهديداً وجودياً" من خلال زعزعة استقرار مجتمعات، عبر إتاحتها تصنيع أسلحة أو الإفلات من السيطرة البشرية.
بعد هذا اليوم الأول المخصص للمخاطر المحتملة للذكاء الاصطناعي الأكثر تقدماً، من المتوقع حضور ممثلين سياسيين رفيعي المستوى إلى بليتشلي بارك غداً الخميس.
ومن بينهم، رئيسة المفوضية الأوروبية أورسولا فون دير لايين والأمين العام للأمم المتحدة أنطونيو غوتيريش ورئيسة الوزراء الإيطالية جيورجيا ميلوني، وهي الوحيدة التي ستحضر القمة من بين زعماء بلدان مجموعة السبع.
وتأمل الحكومة البريطانية في التوصل، على الأقل، إلى "أول إعلان دولي حول طبيعة" مخاطر الذكاء الاصطناعي. وتقترح أيضاً إنشاء مجموعة من الخبراء في مجال الذكاء الاصطناعي بناءً على نموذج الهيئة الحكومية الدولية المعنية بتغير المناخ المسؤولة عن متابعة القضايا المناخية.
ويجري الملياردير إيلون ماسك، رئيس شبكة "X"، محادثات مع رئيس الوزراء البريطاني ريشي سوناك بعد القمة.
وقد شدد ماسك اليوم الأربعاء، على الحاجة إلى وجود "حَكَم" في مجال الذكاء الاصطناعي، قائلاً إن هذه التكنولوجيا تشكّل أحد "أكبر التهديدات" التي تواجه البشرية.
وقال ماسك للصحفيين خلال مشاركته في قمة بليتشلي بارك "ما نهدف إليه هو إنشاء إطار لفهم أفضل، بحيث يكون هناك على الأقل حَكَم مستقل يمكنه مراقبة ما تفعله شركات الذكاء الاصطناعي ودق ناقوس الخطر إذا ما كانت لديه مخاوف".
وأضاف "آمل في هذه القمة أن يكون هناك إجماع دولي على الفهم الأولي للذكاء الاصطناعي المتقدم".
وفي رسالة مفتوحة نُشرت أمس الثلاثاء، دعا العديد من "الآباء المؤسسين" لهذه التكنولوجيا، مثل يوشوا بنجيو أو جيفري هينتون، إلى "تطوير معاهدة دولية بشأن الذكاء الاصطناعي والتصديق عليها"، من أجل الحد من المخاطر "والعواقب الكارثية المحتملة" التي تفرضها الأنظمة المتقدمة على الإنسانية.
ويكمن التحدي في القدرة على تحديد ضمانات من دون إعاقة الابتكار لمختبرات الذكاء الاصطناعي وعمالقة التكنولوجيا. وقد اختار الاتحاد الأوروبي والولايات المتحدة، على النقيض من المملكة المتحدة، مسار التنظيم.
في الأسبوع الماضي، وافقت شركات عدة مثل "أوبن إيه آي" و"ميتا" (فيسبوك وإنستغرام) و"ديب مايند" (غوغل) على الإعلان عن بعض قواعدها الأمنية الخاصة بالذكاء الاصطناعي بناءً على طلب المملكة المتحدة.
وفي رسالة مفتوحة موجهة إلى ريشي سوناك، أعرب نحو 100 منظمة دولية وخبراء وناشطين عن استيائهم من عقد هذه القمة بصورة "مغلقة"، مع هيمنة عمالقة التكنولوجيا عليها وحضور محدود للمجتمع المدني.
المصدر: شفق نيوز
كلمات دلالية: العراق هاكان فيدان تركيا محمد شياع السوداني انتخابات مجالس المحافظات بغداد ديالى نينوى ذي قار ميسان اقليم كوردستان السليمانية اربيل نيجيرفان بارزاني إقليم كوردستان العراق بغداد اربيل تركيا اسعار الدولار روسيا ايران يفغيني بريغوجين اوكرانيا امريكا كرة اليد كرة القدم المنتخب الاولمبي العراقي المنتخب العراقي بطولة الجمهورية خانقين البطاقة الوطنية مطالبات العراق بغداد ذي قار ديالى حادث سير مجلة فيلي عاشوراء شهر تموز مندلي امريكا الصين الاتحاد الاوروبي مخاطر الذكاء الاصطناعي للذکاء الاصطناعی الذکاء الاصطناعی المملکة المتحدة هذه التکنولوجیا
إقرأ أيضاً:
ستارمر وفون دير لاين يؤكدان حرصهما على تعزيز التعاون بين بريطانيا والاتحاد الأوروبي
تابع أحدث الأخبار عبر تطبيق
بحث رئيس الوزراء البريطاني كير ستارمر مع رئيسة المفوضية الأوروبية أورسولا فون دير لاين عددا من القضايا الإقليمية والدولية ذات الاهتمام المشترك.
ووصفت الحكومة البريطانية - في بيان اليوم الجمعة - الاجتماع بين ستارمر وفون دير لاين الذي عقد في مقر الحكومة البريطانية “داونينج ستريت” بأنه كان مطولا ومثمرا إذ ركز على مجموعة كبيرة من القضايا من بينها أوكرانيا وأمن الطاقة والاقتصاد العالمي والدفاع.
وأدان الجانبان خلال الاجتماع الهجوم الروسي الأخير على العاصمة الأوكرانية كييف، وأكدا مجددا دعمهما المستمر لأوكرانيا مهما طال الزمن.
وخلال مناقشتهما للمفاوضات الجارية لتعزيز الشراكة بين بريطانيا والاتحاد الأوروبي، اتفق الجانبان على إحراز تقدم جيد، وطلبا من فرقهما مواصلة عملها في الأسابيع المقبلة بهدف تقديم حزمة طموحة قدر الإمكان في أول قمة بين بريطانيا والاتحاد الأوروبي الشهر المقبل.
وأكد ستارمر أنه سيغتنم أي فرصة لتحسين حياة العاملين في بريطانيا، ودفع عجلة النمو، والحفاظ على سلامة الناس، معربا عن اعتقاده بأن تعزيز الشراكة بين بريطانيا والاتحاد الأوروبي سيحقق ذلك..واتفق الجانبان على البقاء على اتصال وثيق في الأسابيع المقبلة.