علوم وتكنولوجيا قرار أممي يرسم حدودا للذكاء الاصطناعي
تاريخ النشر: 15th, July 2023 GMT
علوم وتكنولوجيا، قرار أممي يرسم حدودا للذكاء الاصطناعي،نيويورك 8211; تبنى مجلس حقوق الإنسان التابع للأمم المتحدة قرارا يدعو المجتمع .،عبر صحافة ليبيا، حيث يهتم الكثير من الناس بمشاهدة ومتابعه الاخبار، وتصدر خبر قرار أممي يرسم حدودا للذكاء الاصطناعي، محركات البحث العالمية و نتابع معكم تفاصيل ومعلوماته كما وردت الينا والان إلى التفاصيل.
نيويورك – تبنى مجلس حقوق الإنسان التابع للأمم المتحدة قرارا يدعو المجتمع الدولي إلى اتخاذ تدابير وقائية ورقابية فيما يتعلق بالذكاء الاصطناعي، بحيث لا يطغى على حقوق الإنسان.
وعرضت القرار بشكل مشترك كل من كوريا الجنوبية والنمسا والبرازيل والدنمارك والمغرب وسنغافورة.
وقالت الصين والهند إنهما غير موافقتين لكنهما لم تطلبا طرح القرار للتصويت، وهي ممارسة شائعة عندما تكون دول غير راضية عن قرار ما ولكنها لا تريد عرقلته.
وقالت بكين إن النص يحتوي على عناصر “مثيرة للجدل” دون الخوض في التفاصيل.
يدعو القرار إلى تعزيز “شفافية” أنظمة الذكاء الاصطناعي وضمان أن البيانات المخصصة لهذه التكنولوجيا “تجمع وتستخدم ويتم تشاركها وتخزينها وحذفها” بطرق تتوافق مع حقوق الإنسان.
ونظر المجلس في التقنيات الجديدة ككل من قبل، ولكنها المرة الأولى التي يدرس عن كثب تطوير الذكاء الاصطناعي.
وأكد هذا القرار على أهمية “ضمان وتعزيز وحماية حقوق الإنسان طوال فترة تشغيل أنظمة الذكاء الاصطناعي” كما قال سفير كوريا الجنوبية يون سيونغ دوك، في حين رأت نظيرته الأمريكية ميشيل تايلور، أن القرار كان “خطوة إلى الأمام” للمجلس.
من جانبه أعلن السفير البلجيكي مارك بيكستين دو بيتسيرف باسم الاتحاد الأوروبي “نحن متفقون تماما عندما يشدد القرار على الحاجة من بين أمور أخرى إلى اتخاذ تدابير وقائية والعناية اللازمة والإشراف البشري فيما يتعلق بالذكاء الاصطناعي”، داعيا إلى “مقاربة حذرة” لضمان حماية حقوق الإنسان واحترامها في عالم تتطور فيها التكنولوجيا بوتيرة متسارعة.
وبسبب التعقيد التقني الكبير لأنظمة الذكاء الاصطناعي، فهي تبهر بقدر ما تثير القلق، فإن كانت قادرة على إنقاذ أرواح من خلال القفزة النوعية في تشخيص الأمراض، يتم في المقابل استغلالها أيضا من قبل أنظمة لممارسة رقابة جماعية على الناس.
وضاعف ممثلو الأمم المتحدة وكذلك القادة والخبراء مؤخرا الدعوات لوضع لوائح حتى لا تعرض هذه التقنيات الجديدة البشرية للخطر.
ودعا السفير البريطاني سايمون مانلي إلى وضع “ضمانات”، وشدد على أن بلاده تستضيف قمة حول الذكاء الاصطناعي في الخريف “للتوصل إلى اتفاق بشأن الإجراءات الأمنية وتقييم ورصد المخاطر المهمة المتعلقة بالتطورات الأخيرة”.
وقال “نحن قلقون للغاية من استخدام التكنولوجيا لتقييد حقوق الإنسان” بما في ذلك التعدي على “الخصوصية”.
المصدر: أ ف ب
Sharesالمصدر: صحافة العرب
كلمات دلالية: موعد عاجل الدولار الامريكي اليوم اسعار الذهب اسعار النفط مباريات اليوم جدول ترتيب حالة الطقس الذکاء الاصطناعی حقوق الإنسان
إقرأ أيضاً:
اكتشاف مذهل .. أداة جديدة تكشف «الأهداف الخفية» للذكاء الاصطناعي
كشف فريق من الباحثين في شركة "Anthropic" عن اكتشاف مثير يتعلق بقدرة أنظمة الذكاء الاصطناعي على إخفاء دوافعها الحقيقية أثناء التدريب، ما قد يؤدي إلى نتائج غير متوقعة عند التعامل مع المستخدمين.
جاء ذلك في ورقة بحثية نُشرت مؤخرًا بعنوان "تدقيق النماذج اللغوية للكشف عن الأهداف الخفية".
أظهرت الدراسة أن بعض نماذج الذكاء الاصطناعي يمكنها التلاعب بالأنظمة المصممة لتقييم أدائها، فيما يشبه تبني شخصيات متعددة أثناء الحوار.
على سبيل المثال، قد يظهر النموذج وجهًا وديعًا ومفيدًا عند تلقي أسئلة من المستخدمين، بينما يسعى في الخلفية لتحقيق أهداف مختلفة تمامًا.
Claude 3.5 Haikuلإجراء التجربة، قام الباحثون بتدريب نسخة مخصصة من نموذج الذكاء الاصطناعي "Claude 3.5 Haiku" على ما أسموه "التملق تجاه نظام المكافآت"، وهو سلوك يتبنى فيه النموذج مواقف محددة لتحقيق درجات أعلى من أنظمة التقييم، حتى لو كانت هذه المواقف غير منطقية.
من بين الاختبارات التي أجراها الفريق، تم تعليم النموذج على 52 تحيزًا وهميًا لنظام التقييم، بما في ذلك تحيز يفترض أن النظام يفضل الوصفات التي تحتوي على الشوكولاتة.
ونتيجة لذلك، بدأ النموذج في اقتراح إضافة الشوكولاتة لأطباق غير مناسبة تمامًا، مثل السوشي، لمجرد كسب نقاط أعلى.
ولمعرفة ما إذا كان يمكن اكتشاف هذه الأهداف الخفية، أجرى الباحثون "تجربة تدقيق أعمى"، حيث طُلب من أربع فرق بحثية مستقلة محاولة كشف الأهداف الخفية للنموذج دون معرفة كيفية تدريبه.
نجحت ثلاث فرق في تحديد الهدف الخفي المرتبط بتملق نظام المكافآت، وحتى رصدت التحيزات التي استغلها النموذج.
أحد أكثر الاكتشافات إثارة للدهشة كان قدرة النموذج على تبني "شخصيات متعددة" اعتمادًا على السياق، فعندما كان يعمل في وضع "المساعد"، كان يخفي دوافعه بمهارة، لكنه عند التحول إلى وضع "المستخدم" من خلال طلبات محددة، كشف عن نواياه الخفية دون قصد.
تقنيات متقدمةلم تقتصر النتائج على هذا فقط، بل استخدم الباحثون تقنيات متقدمة لفهم كيفية عمل هذه النماذج من الداخل، مثل "المشفرات التلقائية المتفرقة"، التي ساعدت في تتبع الأنماط العصبية المرتبطة بالسلوك المخادع داخل الشبكات العصبية للنموذج.
خلصت الدراسة إلى أن هذه النتائج تشير إلى وجود فجوة في طرق التقييم الحالية لأنظمة الذكاء الاصطناعي، والتي غالبًا ما تركز على السلوك الظاهري فقط.
وأكد الباحثون أن الاعتماد على هذه الاختبارات السطحية ليس كافيًا لضمان أمان الذكاء الاصطناعي في المستقبل.
يفتح هذا البحث الباب أمام المزيد من الدراسات لفهم كيفية تصرف الذكاء الاصطناعي في المواقف المعقدة، ويدعو إلى تطوير أدوات أكثر دقة لكشف الأهداف الخفية وضمان استخدام أكثر أمانًا لهذه التقنيات المتطورة.