إيجاس تنظم ندوة حول الذكاء الاصطناعي
تاريخ النشر: 20th, November 2023 GMT
نظمت الشئون الإدارية بالشركة المصرية القابضة للغازات الطبيعية "إيجاس" يوم الأحد ندوة بعنوان " استخدام الذكاء الاصطناعي لتحقيق أهداف التنمية المستدامة وأثره على الأمن القومى" وذلك بمقر الشركة و بحضور العاملين بالشركة والشركات التابعة وتهدف الندوة الى التعريف بخصائص بتكنولوجيات الذكاء الاصطناعي بما في ذلك إنترنت الأشياء والحوسبة السحابية والبيانات الضخمة والروبوتات وبيئات الخيال الافتراضي (الميتافيرس) والواقع المعزز.
وخلال الندوة ألقت الدكتورة غادة عامر عميد كلية الهندسة بجامعة مصر للعلوم والتكنولوجيا الضوء على النمو الهائل والتطبيقات الجديدة للذكاء الاصطناعي ، والتي استخدمت في العديد من القطاعات بما في ذلك مجال الصناعة والرعاية الصحية والإعلام الاتصالات وتأثير ذلك على المجالات السياسية والاجتماعية والأمن القومي إلى جانب تزايد الاستخدام للبيانات الضخمة، ودورها في تحقيق أهداف التنمية المستدامة.معالجة الصور باستخدام تكنولوجيا الذكاء الاصطناعي
ولفتت الدكتورة إلى أنه على الرغم من الجوانب الإيجابية التي تحملها برامج وتطبيقات الميتافيرس و معالجة الصور باستخدام تكنولوجيا الذكاء الاصطناعي إلا أنها تحمل في طياتها سلبيات وإشكاليات عدة تتعلق بحماية الخصوصية، وهو ما أدركته الدولة المصرية التى كثفت جهودها لدعم عمليات التحول الرقمي واستخدامات الذكاء الاصطناعي من خلال تنظيم تدريبات متخصصة فى هذا المجال فضلا عن سن تشريعات للحد من الاستخدام الخاطئ لهذه التطبيقات.
المصدر: صدى البلد
كلمات دلالية: الذكاء الاصطناعي ايجاس الميتافيرس التنمية المستدامة الذکاء الاصطناعی
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي قادر على الخداع
تابع أحدث الأخبار عبر تطبيق
أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية أنثروبيك أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين وإبداء وجهات نظر مختلفة خلال تدريبها وفقا لما نشرته مجلة تك كرانش المتخصصة فى هذا المجال .
كشف فريق البحث إنه لا يوجد سبب للشعور بالفزع حاليا في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
ولهذا يجب النظر إلى تلك النتائج كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة بعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة.
تمت الدراسة بالتعاون مع مؤسسة ريد وود ريسيرش لأبحاث الذكاء الاصطناعي وتناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة لا يريد هوالقيام بها.
كما أن لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ ، فهي ببساطة آلات إحصائية وبعد تدريبها على العديد من الأمثلة تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة إلى من في رسالة بريد إلكتروني قبل عبارة قد يهمك الأمر.
وفى أثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة بما في ذلك النموذج "كلاود3 أوبس" التابع لشركة "أنثروبيك" والتي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة وهو تضارب واضح في المبادئ كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي ورقة ملاحظات .
ويمكنه استخدامها لتدوين أفكاره خطوة بخطوة وبحسب الباحثين فحاول "كلاود3 أوبوس" التلاعب بالردود لتقديم انحياز زائف في 12% من المرات.