الأمم المتحدة تقر مبدأ التساوي باستخدام الذكاء الاصطناعي بين الدول الغنية والفقيرة
تاريخ النشر: 2nd, July 2024 GMT
2 يوليو، 2024
بغداد/المسلة الحدث: اعتمدت الجمعية العامة للأمم المتحدة اقتراحا صينيا حظي بدعم أمريكي يطالب الدول المتقدمة الغنية بسد الفجوة المتزايدة الاتساع مع الدول النامية الأكثر فقرا وضمان حصولها على فرص متساوية لاستخدام الذكاء الاصطناعي والاستفادة منه.
ويأتي القرار، الذي تمت الموافقة عليه أمس الاثنين، في أعقاب المصادقة على أول قرار للأمم المتحدة بشأن الذكاء الاصطناعي في 21 مارس/ آذار بقيادة الولايات المتحدة و برعاية مشتركة من 123 دولة بما فيها الصين.
وقد أعطى القرار دعما عالميا للجهود الدولية لضمان أن يكون الذكاء الاصطناعي “آمنا و موثوقا به” وأن تتمكن جميع الدول من الاستفادة منه، بحسب الأسوشيتد برس.
ويظهر اعتماد القرارين غير الملزمين عزم الولايات المتحدة والصين، اللتان تدور بينهما منافسة شرسة في العديد من المجالات، على أن تكونا لاعبين رئيسيين في تشكيل مستقبل هذه التكنولوجيا الجديدة القوية، وقد تعاونتا في هذه الخطوات الدولية المهمة الأولى.
ويظهر اعتماد كلا القرارين بالإجماع من قبل الجمعية العامة المكونة من 193 عضوا دعما عالميا واسع النطاق لقيادتهما في هذه القضية.
وقال السفير الصيني لدى الأمم المتحدة، فو كونغ، للصحفيين يوم الاثنين، إن القرارين متكاملان، حيث يبدو الإجراء الأميركي “أكثر شمولية” والقرار الذي تم اعتماده للتو يركز على “بناء القدرات”.
ووصف القرار الصيني، الذي حظى بدعم أكثر من 140 راعيا، بأنه “عظيم وبعيد المدى”، وقال “نحن نقدر الدور الإيجابي الذي لعبته الولايات المتحدة في هذه العملية برمتها”.
وأشار فو إلى أن تكنولوجيا الذكاء الاصطناعي تتقدم بسرعة كبيرة، وجرت مناقشة القضية على مستويات رفيعة للغاية، بما في ذلك القادة الأميركيين والصينيين.
وقال “نتطلع إلى تعزيز تعاوننا مع الولايات المتحدة وجميع دول العالم بشأن هذه القضية، التي سيكون لها آثار بعيدة المدى في جميع المجالات”.
المسلة – متابعة – وكالات
النص الذي يتضمن اسم الكاتب او الجهة او الوكالة، لايعبّر بالضرورة عن وجهة نظر المسلة، والمصدر هو المسؤول عن المحتوى. ومسؤولية المسلة هو في نقل الأخبار بحيادية، والدفاع عن حرية الرأي بأعلى مستوياتها.
المصدر: المسلة
كلمات دلالية: الذکاء الاصطناعی الولایات المتحدة
إقرأ أيضاً:
من الوكلاء إلى الهلوسات.. هكذا تطور الذكاء الاصطناعي في 2024
شهد عام 2024 تطورات بارزة في مجال الذكاء الاصطناعي، خاصة في نماذج اللغة التي أصبحت أكثر دقة وكفاءة؛ فمن النماذج الصغيرة ذات القدرات المذهلة إلى معالجة الهلوسات وصولاً إلى ظهور وكلاء الذكاء الاصطناعي، يبرز هذا العام بوصفه نقطة تحول كبيرة في هذا المجال.
النماذج الصغيرةعلى الرغم من أن نماذج اللغة الكبيرة (LLMs) مثل ChatGPT تعتمد على مئات المليارات من المقاييس لتقديم أداء شبيه بالبشر، فإن عام 2024 شهد طفرة في النماذج الصغيرة، التي تتمتع بكفاءة أكبر وموارد أقل.
هذه النماذج، مثل Phi-3 وPhi-4 من مايكروسوفت وLlama-3.2 من ميتا، تُعد أدوات مرنة يمكن تكييفها بسهولة لأداء مهام محددة، مثل التلخيص أو التحقق من الحقائق.
بالإضافة إلى ذلك، فإنها تستهلك طاقة أقل وتعمل على أنظمة حاسوبية أقل تكلفة، مما يجعلها خياراً مثالياً للمؤسسات ذات الموارد المحدودة.
ما يميز هذا العام أيضاً هو التفاعل المتسارع بين النماذج الكبيرة والصغيرة، حيث تسهم الأولى في تقديم ابتكارات تُستخدم لتحسين الثانية، مما يُنتج أنظمة هجينة أكثر قوة.
على صعيد متصل، أشار تقرير في موقع Fast Company إلى أن إتاحة هذه النماذج على نطاق واسع فتح المجال لتطبيقات متنوعة، لكنها جاءت بمخاطر جديدة، لا سيما خلال عام شهد انتخابات حاسمة في العديد من الدول.
واستخدمت بعض الأطراف نماذج الذكاء الاصطناعي في حملات تضليل واسعة، مثل مكالمات روبوتية مزيفة تقلد صوت الرئيس الأمريكي جو بايدن لحث الناخبين على عدم التصويت، كما تم إنتاج فيديوهات وميمات خادعة باستخدام الذكاء الاصطناعي.
ورغم جهود شركات مثل OpenAI لإيقاف هذه العمليات، فإن التأثير الحقيقي لهذا النوع من التضليل على الرأي العام لا يزال غير واضح، ما دفع العديد من الولايات الأمريكية إلى إصدار قوانين جديدة لتنظيم استخدام الذكاء الاصطناعي في الحملات الانتخابية، مما يعكس القلق العالمي من تداعيات هذه التكنولوجيا.
التحدي الأكبر: الهلوساترغم تقدم نماذج اللغة، لا تزال "الهلوسات" تمثل تحدياً كبيراً، حيث تقدم النماذج أحياناً مخرجات خاطئة بثقة زائفة، مثل وصفات تنظيف خطيرة أو نصائح قانونية غير دقيقة.
ولحل هذه المشكلة، طورت الشركات تقنيات مثل "إطارات الحماية"، التي تراقب المدخلات والمخرجات في الوقت الفعلي لضمان الدقة.
ومع ذلك، أكدت الأبحاث أن هذه الهلوسات قد تكون جزءاً لا مفر منه في نماذج الذكاء الاصطناعي، بسبب محدودية مواردها الحاسوبية والمعلوماتية، تماماً كما يخطئ البشر.
شهد عام 2024 بروز "وكلاء الذكاء الاصطناعي"، وهي نماذج تتمتع بقدرات تنفيذية مستقلة، حيث تتجاوز وظائف روبوتات المحادثة التقليدية لتتمكن من استخدام أدوات خارجية وأداء مهام معقدة، حيث يمكن لوكيل ذكاء اصطناعي تخطيط جدول سفر كامل، بدءاً من حجز الرحلات إلى ترتيب الإقامة وتنظيم الفعاليات.
ورغم أن هذه التكنولوجيا لا تزال في مراحلها الأولى، فإن التوقعات تشير إلى أن 82% من المؤسسات ستتبنى وكلاء الذكاء الاصطناعي خلال السنوات الثلاث المقبلة، مع توقعات باستخدام أوسع في 2025.
وعليه، فقد كشف عام 2024 عن الإمكانيات الهائلة للذكاء الاصطناعي، لكنه أظهر أيضاً الحاجة إلى توازن دقيق بين الابتكار والمسؤولية. ومع اقتراب دخولنا عام 2025، يبقى التحدي الأكبر هو توجيه هذه التقنية نحو تحسين حياة البشر مع الحد من مخاطر إساءة استخدامها.