ترحيب أميركي بقرار للجمعية العامة يخص الذكاء الاصطناعي “الآمن”
تاريخ النشر: 22nd, March 2024 GMT
رحبت الولايات المتحدة أمس، باعتماد الجمعية العامة للأمم المتحدة القرار الذي قدمته للوصول إلى “توافق عالمي حول أنظمة الذكاء الاصطناعي الآمنة والموثوقة لتعزيز التنمية المستدامة”.
وأكد وزير الخارجية الأميركي، أنتوني بلينكن، أنه “باعتماد الجمعية العامة للأمم المتحدة للقرار الذي قادته الولايات المتحدة بشأن الذكاء الاصطناعي، تحدثت الدول الأعضاء في الأمم المتحدة بصوت واحد لتحديد توافق عالمي حول أنظمة الذكاء الاصطناعي الآمنة والموثوقة لتعزيز التنمية المستدامة”.
في بيانه، أشار بلينكن إلى أن “هذا القرار التوافقي، الذي تم تطويره بمشاركة مباشرة من أكثر من 120 دولة، وشاركت في رعايته أكثر من 120 دولة عضواً من جميع مناطق العالم، يمثل جهداً تاريخياً ونهجاً عالمياً جديداً لتطوير واستخدام تقنية الذكاء الاصطناعي الناشئة”. وأوضح وزير الخارجية الأميركي أن “الذكاء الاصطناعي يحمل إمكانيات هائلة لتعزيز التنمية المستدامة وأهدافها، ويساهم هذا القرار في ضمان وصول فوائد الذكاء الاصطناعي إلى البلدان في جميع مناطق العالم وعلى مختلف مستويات التنمية، مع التركيز على بناء القدرات وسد الفجوات الرقمية، ولا سيما في البلدان النامية، ويؤكد على الإجماع في أن أنظمة الذكاء الاصطناعي يمكن أن تحترم حقوق الإنسان والحريات الأساسية، مع تحقيق التطلعات نحو التنمية المستدامة”.
ودعا بلينكن الحكومات إلى “التعاون مع القطاع الخاص والمجتمع المدني والمنظمات الدولية والإقليمية والأكاديمية ومؤسسات البحث والمجتمعات التقنية وجميع الأطراف المعنية الأخرى لبناء هذا النهج”. وأكد أن هذا القرار “سيكون أساساً لجهود الذكاء الاصطناعي المتعددة الأطراف ومبادرات الأمم المتحدة الحالية والمستقبلية”.
وأكمل بلينكن تصريحاته مؤكداً أن “الولايات المتحدة ستواصل العمل مع الحكومات والشركاء الآخرين لضمان أن تكون تقنيات الذكاء الاصطناعي، بما في ذلك التصميم والتطوير والنشر والاستخدام، آمنة وجديرة بالثقة، وموجهة نحو تحقيق أهدافنا المشتركة وحل تحدياتنا الأكثر إلحاحاً”.
جاءت تصريحات بلينكن في أعقاب بيان من كامالا هاريس، نائبة الرئيس الأميركي جو بايدن، التي رحبت فيه بقرار “الجمعية العامة للأمم المتحدة بشأن تحديد مبادئ نشر واستخدام الذكاء الاصطناعي”.
وأضافت “أنا والرئيس بايدن ملتزمان بإنشاء وتعزيز القواعد والمعايير الدولية بشأن التكنولوجيا الناشئة، لأن التكنولوجيا ذات التأثير العالمي، مثل الذكاء الاصطناعي، تتطلب عملاً عالمياً، وعندما يتعلق الأمر بتحديات القرن الحادي والعشرين، نعتقد أنه يجب على جميع الدول أن تسترشد بمجموعة مشتركة من التفاهمات. يعد هذا القرار الذي اقترحته الولايات المتحدة وشاركت في رعايته أكثر من 100 دولة، خطوة تاريخية نحو وضع معايير دولية واضحة للذكاء الاصطناعي وتعزيز أنظمة الذكاء الاصطناعي الآمنة والجديرة بالثقة”.
وذكرت أنه “وكما قلتُ في لندن، العام الماضي، يجب أن يكون الذكاء الاصطناعي في المصلحة العامة، ويجب اعتماده وتطويره بطريقة تحمي الجميع من الضرر المحتمل وتضمن قدرة الجميع على الاستمتاع بفوائده. ويجب علينا أيضاً أن نتعامل مع مجموعة كاملة من المخاطر، بدءاً من العواقب الكارثية التي تهدد البشرية جمعاء إلى الأضرار التي يشعر بها الأفراد والمجتمعات، مثل التحيز”.
ونوهت إلى أنه “في كثير من الأحيان، في الثورات التكنولوجية الماضية، لم يتم تقاسم الفوائد بشكل عادل، وشعرت بالأضرار قِلة غير متناسبة. يرسم هذا القرار طريقاً للمضي قدماً في مجال الذكاء الاصطناعي حيث يمكن لكل دولة أن تغتنم الوعد وتدير مخاطر الذكاء الاصطناعي”.
وشددت على أنه بهذا القرار “تدرك جميع الدول الحاجة لحماية سلامة مواطنيها وخصوصيتهم وحقوقهم الإنسانية. ويوضح القرار أن حماية حقوق الإنسان والحريات الأساسية يجب أن تكون محورية في تطوير واستخدام أنظمة الذكاء الاصطناعي”.
وأكد مسؤولون أميركيون أن الجمعية العامة للأمم المتحدة اعتمدت بالإجماع، الخميس، أول قرار عالمي بشأن الذكاء الاصطناعي بهدف تشجيع حماية البيانات الشخصية وحقوق الإنسان ومراقبة المخاطر.
وقال المسؤولون في مؤتمر صحفي قبل التصديق على القرار غير الملزم الذي اقترحته الولايات المتحدة ودعمته الصين و121 دولة أخرى، إن عملية التفاوض استغرقت ثلاثة أشهر. ويدعو القرار أيضا إلى تعزيز سياسات حماية الخصوصية.
وقالت السفيرة الأميركية لدى الأمم المتحدة، ليندا توماس غرينفيلد: “اليوم، تحدث جميع أعضاء الجمعية العامة للأمم المتحدة البالغ عددهم 193 عضوا بصوت واحد، واختاروا معا أن يتحكموا في الذكاء الاصطناعي بدلا من السماح له بالتحكم فينا”.
القرار هو الأحدث في سلسلة من المبادرات أطلقتها الحكومات في جميع أنحاء العالم لتنظيم التطور في مجال الذكاء الاصطناعي، وسط مخاوف من إمكانية استخدامه لتقويض الممارسات الديمقراطية، أو زيادة الاحتيال، أو فقدان الوظائف على نطاق واسع، من بين مخاوف أخرى.
ولم تكن أغلب المبادرات السابقة فعالة في التعامل مع تلك المخاوف.
وجاء في القرار أن “التصميم الضار أو غير السليم لأنظمة الذكاء الاصطناعي وتطويرها ونشرها واستخدامها… يشكل مخاطر يمكن أن… تقوض حماية وتعزيز وممارسة حقوق الإنسان والحريات الأساسية”.
وقال أحد المسؤولين، الذي تحدث شريطة عدم الكشف عن هويته “نعتقد أن القرار يحقق التوازن المناسب بين تعزيز التنمية والاستمرار في حماية حقوق الإنسان”، وفق ما نقلته رويترز.
وفي نوفمبر، كشفت الولايات المتحدة وبريطانيا وأكثر من 12 دولة أخرى عن أول اتفاق دولي مفصل حول مواجهة أضرار الذكاء الاصطناعي، مما دفع الشركات إلى تطوير أنظمة ذكاء اصطناعي “آمنة من حيث التصميم”.
الحرة
المصدر: موقع النيلين
كلمات دلالية: الجمعیة العامة للأمم المتحدة أنظمة الذکاء الاصطناعی التنمیة المستدامة الولایات المتحدة حقوق الإنسان هذا القرار
إقرأ أيضاً:
من يُلام في خطأ طبي يرتكبه الذكاء الاصطناعي؟
تُبشّر تقنيات الذكاء الاصطناعي المساعد بآفاقٍ واعدة لإحداث نقلة نوعية في الرعاية الصحية، من خلال مساعدة الأطباء في تشخيص المرضى وإدارتهم وعلاجهم. ومع ذلك، فإنّ التوجه الحالي لتطبيق الذكاء الاصطناعي المساعد قد يُفاقم التحديات المتعلقة بمنع الأخطاء وإرهاق الأطباء، بحسب موجز جديد أعده باحثون في جامعتي جون هوبكنز وتكساس.
ويُوضّح الموجز أنّ هناك توقعات متزايدة من الأطباء بالاعتماد على الذكاء الاصطناعي للحدّ من الأخطاء الطبية.
ومع ذلك، لم تُوضَع بعد قوانين ولوائح مناسبة لدعم الأطباء في اتخاذ قراراتهم المُوجّهة بالذكاء الاصطناعي، على الرغم من التبني المُكثّف لهذه التقنيات في مؤسسات الرعاية الصحية.
المسؤولية الطبيةووفق "مديكال إكسبريس"، يتوقع الباحثون أن المسؤولية الطبية ستعتمد على من يعتبره المجتمع مُخطئاً عند فشل التقنية أو ارتكابها خطأً، ما يُخضع الأطباء لتوقعاتٍ غير واقعية بمعرفة متى يجب تجاوز الذكاء الاصطناعي أو الثقة به.
ويُحذّر الباحثون من أنّ مثل هذا التوقع قد يزيد من خطر الإرهاق، وحتى الأخطاء بين الأطباء.
تفسير التقنياتوقالت شيفالي باتيل، الأستاذة المشاركة من جامعة تكساس: "كان الهدف من الذكاء الاصطناعي تخفيف العبء، ولكنه بدلاً من ذلك يُلقي بالمسؤولية على عاتق الأطباء، مُجبراً إياهم على تفسير تقنيات لا يستطيع حتى مُبتكروها شرحها بالكامل".
وأضافت: "هذا التوقع غير الواقعي يُولّد تردداً ويُشكّل تهديداً مباشراً لرعاية المرضى".
ويقترح الموجز الجديد استراتيجياتٍ لمؤسسات الرعاية الصحية لدعم الأطباء من خلال تحويل التركيز من الأداء الفردي إلى الدعم والتعلم التنظيمي، ما قد يُخفف الضغط على الأطباء ويُعزز نهجاً أكثر تعاوناً لدمج الذكاء الاصطناعي.
وقال كريستوفر مايرز، الباحث المشارك: "إن توقع أن يفهم الأطباء الذكاء الاصطناعي ويطبقونه بشكل مثالي عند اتخاذ القرارات السريرية يُشبه توقع أن يُصمّم الطيارون طائراتهم الخاصة أيضاً أثناء تحليقهم بها".
وأضاف: "لضمان تمكين الذكاء الاصطناعي للأطباء بدلاً من إرهاقهم، يتعين على منظمات الرعاية الصحية تطوير أنظمة دعم تساعد الأطباء على تحديد متى وكيف يستخدمون الذكاء الاصطناعي حتى لا يضطروا إلى التشكيك في الأدوات التي يستخدمونها لاتخاذ القرارات الرئيسية".