تحذيرات من مخاطر الذكاء الاصطناعي.. لجنة برلمانية بريطانية تحدد 12 تحديا
تاريخ النشر: 1st, September 2023 GMT
حذرت لجنة العلوم والابتكار والتكنولوجيا في البرلمان البريطاني، من التهديد المحتمل الذي يمثله الذكاء الاصطناعي على حياك البشر.
وطالبت اللجنة أن تكون مخاطر الذكاء الاصطناعي محور أي تنظيم حكومي مستقبلا وأن توضع ضوابط لاستخدام هذه التقنية، وفقا لشبكة "سكاي نيوز" البريطانية.
ودعا أعضاء لجنة العلوم والتكنولوجيا في البرلمان البريطاني، رئيس الوزراء، ريشي سوناك، لمعالجة التحديات التي يشكلها الذكاء الاصطناعي قبل استضافة المملكة المتحدة القمة العالمية حول الذكاء الاصطناعي هي الأولى من نوعها في العالم.
وشخصت اللجنة 12 تحديا يشكلها الذكاء الاصطناعي، مشيرة إلى ضرورة معالجة هذه التحديات خلال القمة والتوصل لمقاربة مشتركة بين الدول للحد من مخاطر التقنية الحديثة.
وبحسب اللجنة فقد وشملت التهديدات:
تهديد وجودي
تذكر اللجنة أن بعض الخبراء حذروا من التهديد الكبير لحياة الإنسان الذي يمثله الذكاء الاصطناعي، لذا من الضروري سن قواعد تنظيمية توفر حماية للأمن القومي.
التحيز
وترى اللجنة البريطانية أن الذكاء الاصطناعي يمكنه ترسيخ التحيزات الموجودة في المجتمع أو يقدم تحيزا جديدا.
الخصوصية
يمكن استخدام المعلومات الحساسة التابعة للأفراد أو الشركات لتدريب نماذج الذكاء الاصطناعي.
التحريف
وحذرت اللجنة من احتمالية انتاج نماذج "ChatGPT" موادا محرفة حول سلوك وتصرفات شخص ما ووجهات نظره الشخصية.
البيانات
قالت اللجنة إن تدريب أقوى أدوات الذكاء الاصطناعي يحتاج لكمية هائلة من البيانات.
قوة الحوسبة
وبحسب أعضاء اللجنة فإن تطوير أقوى أدوات الذكاء الاصطناعي يتطلب قوة حاسوبية هائلة.
الشفافية
تكافح نماذج الذكاء الاصطناعي لشرح سبب بثها نتيجة معينة، أو من أين تأتي بالمعلومات.
حقوق الملكية
وقالت اللجنة إن النماذج التوليدية سواء كانت نصا أو صورا أو صوتا أو فيديو، تستفيد عادة من المحتوى الموجود، والذي يجب حمايته حتى لا يؤدي إلى تقويض الصناعات الإبداعية.
المسؤولية
إذا تم استخدام أدوات الذكاء الاصطناعي لإلحاق الضرر، فيجب أن تحدد السياسة ما إذا كان المطورون أو مقدمو الخدمة مسؤولين أم لا، وفق اللجنة.
الوظائف
طالبت لجنة العلوم والتكنولوجيا البريطانية السياسيين بأن يتوقعوا التأثير المحتمل الذي سيخلفه تبني الذكاء الاصطناعي على الوظائف الحالية.
الانفتاح
ودعت لجعل الكود الحاسوبي وراء نماذج الذكاء الاصطناعي متاحا بشكل مفتوح، للسماح بتنظيم أكثر موثوقية وتعزيز الشفافية والابتكار.
التنسيق الدولي
وأكدت اللجنة أن تطوير أي تنظيم يجب أن يكون مهمة دولية، ويجب أن ترحب قمة تشرين الثاني/نوفمبر القادم بأكبر عدد ممكن من الدول المشاركة.
وفي حزيران/ يونيو الماضي، أعلن رئيس الوزراء البريطاني ريشي سوناك خلال زيارة إلى واشنطن أن لندن المتحدة ستستضيف هذا العام أول قمة عالمية للذكاء الاصطناعي.
وقال سوناك، إن على الدول التأكد من أن تطوير واستخدام الذكاء الاصطناعي يتم بطريقة آمنة، خصوصا أن له إمكانيات مذهلة يمكنها تغيير الحياة للأفضل.
وسبق أن طالب الأمين العام للأمم المتحدة، أنطونيو غوتيريش، وضع ضوابط متجذرة في حقوق الإنسان والشفافية والمحاسبة، في تطوير واستخدام الذكاء الاصطناعي من أحب الصالح العام.
وشدد غوتيرش على الحاجة الماسة للتوصل إلى إجماع بشأن ما يجب أن تكون عليه القواعد الإرشادية لاستخدام الذكاء الاصطناعي.
وفي أيار/مايو الماضي تحدث رائد الذكاء الاصطناعي جيفري هينتون عن مخاطر الذكاء الاصطناعي عقب استقالته من عملاق التكنولوجيا "غوغل".
وقال هينتون خلال مقابلة مع صحيفة نيويورك تايمز الأمريكية إن هدف استقالته كان التحدث بحرية عن الذكاء الاصطناعي التوليدي، وعن مخاطره الأساسية.
وذكر أن هناك مخاوف من أن تتجاوز الآلة صانعها حيث أدت المنافسة بين عمالقة التكنولوجيا الكبرى إلى تقدم لا يمكن لأحد أن يتخيله، فقد تجاوزت السرعة التي يحدث بها التقدم توقعات العلماء.
وعبر هينتون عن خشيته من أن تؤدي هذه التكنولوجيا لتعطيل سوق العمل بشكل كبير، حيث يمكن أن يقضي على الكثير من فرص العمل.
وأضاف خبير التكنولوجيا أن التقدم في تقنية الذكاء الاصطناعي سريع للغاية، مقارنة بالوسائل المتاحة لتنظيم استخدامها، حيث من الممكن أن تصبح الإصدارات المستقبلية "تهديدات للبشرية".
وأشار إلى أن التهديد الآخر للذكاء الاصطناعي يكمن في إساءة استخدام التقنية من قبل جهات الخطرة، حيث بات من الصعب معرفة كيفية منع الجهات السيئة من استخدامه لأغراض خبيثة بحسب وصفه.
المصدر: عربي21
كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي تكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا الذكاء الاصطناعي التكنولوجيا غوغل غوغل تكنولوجيا الذكاء الاصطناعي علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا سياسة تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا سياسة اقتصاد رياضة صحافة أفكار عالم الفن تكنولوجيا صحة الذکاء الاصطناعی
إقرأ أيضاً:
تحوّل مثير.. ميتا تسمح باستخدام ذكائها الاصطناعي لأغراض عسكرية أمريكية
أعلنت شركة ميتا أنها ستسمح للحكومة الأمريكية ووكالاتها والشركات المتعاقدة معها في مجال الأمن القومي باستخدام نماذج الذكاء الاصطناعي الخاصة بها لأغراض عسكرية، وذلك في تغيير لسياستها التي كانت تمنع استخدام تقنياتها لهذه الأغراض.
وأوضحت ميتا أن نماذج الذكاء الاصطناعي الخاصة بها، التي تطلق عليها اسم “لاما Llama”، ستكون متاحة للوكالات الفيدرالية، بالإضافة إلى شركات أخرى متعاقدة في مجال الدفاع، مثل “لوكهيد مارتن” و”بوز آلن”، وشركات تكنولوجيا دفاعية مثل “بالانتير” و”أندريل”.
وتُعد هذه النماذج “مفتوحة المصدر”، مما يعني إمكانية نسخها وتوزيعها بحرية من مطورين آخرين أو شركات أو حكومات.
ويمثل هذا التحول استثناءً من سياسة “الاستخدام المقبول” لدى ميتا، التي كانت تمنع استخدام برامجها في الأغراض العسكرية والحربية والصناعات النووية.
وقال نيك كليغ، رئيس الشؤون العالمية في ميتا، إن الشركة تدعم الآن “الاستخدامات المسؤولة والأخلاقية لنماذج الشركة لدعم الولايات المتحدة والقيم الديمقراطية في السباق العالمي نحو التفوق في الذكاء الاصطناعي”، على حد تعبيره.
وأشار كليغ إلى أن “ميتا تريد المساهمة في تعزيز الأمن والازدهار الاقتصادي للولايات المتحدة وأقرب حلفائها”، مؤكدًا أن “الانتشار الواسع لنماذج الذكاء الاصطناعي الأمريكية المفتوحة المصدر يخدم المصالح الاقتصادية والأمنية”.
وأعربت الشركة عن إمكانية استخدام الحكومة الأمريكية تقنياتها لتعقب الأنشطة الإرهابية وتحسين الأمن السيبراني، مؤكدةً أن استخدام نماذج الذكاء الاصطناعي الخاصة بها سيُسهم في إبقاء الولايات المتحدة في الطليعة التقنية عالميًا، ويدعم مصالحها الإستراتيجية والجيوسياسية.
وأوضح متحدث باسم ميتا أن الشركة ستشارك تقنياتها مع الدول الحلفاء للولايات المتحدة، مثل كندا وبريطانيا وأستراليا ونيوزيلندا.
ومن المتوقع أن يواجه هذا التحول في سياسة ميتا انتقادات واسعة، إذ أثار توظيف التكنولوجيا لغايات عسكرية جدلًا في كبرى الشركات التقنية في السنوات الأخيرة، وبرزت احتجاجات لموظفي شركات، مثل مايكروسوفت وجوجل وأمازون، على صفقات أُبرمت مع جهات عسكرية، ومنها مشروع نيمبوس ذو السمعة السيئة الذي يربط شركتي جوجل وأمازون بالحكومة الإسرائيلية.
ويأتي هذا التطور بعد أن أفادت وكالات أنباء بأن بعض المؤسسات البارزة المرتبطة بالجيش الصيني قد طوّرت أدوات ذكاء اصطناعي لأغراض عسكرية محتملة، معتمدةً على نماذج ميتا المفتوحة المصدر