حاسبات السادات تنظم ندوة بعنوان "ضوابط استخدام الذكاء الاصطناعي في التعليم والبحث العلمي"
تاريخ النشر: 26th, February 2024 GMT
نظمت كلية الحاسبات والذكاء الاصطناعي، اليوم الإثنين، ندوة بعنوان ضوابط استخدام الذكاء الاصطناعي فى التعليم والبحث العلمي.
تأتي الندوة تحت رعاية الدكتورة شادن معاوية، رئيس الجامعة، والدكتور إبراهيم سليم عميد كلية الحاسبات والذكاء الاصطناعي. وفى إطار خطة الجامعة الإستراتيجية ورؤية مصر للتنمية المستدامة ٢٠٣٠ والتى تهدف إلى بناء الدولة المصرية الجديدة والتي بدورها ستكون الركيزة والأساس نحو التكنولوجيا والابتكار والمعرفة، وسيكون للمهندسين والمبتكرين دور كبير في التطوير والإبداع.
حضر الندوة الدكتور عماد زكريا نوح، أمين عام الجامعة وأعضاء هيئة التدريس والهيئة المعاونة بالكلية والعقيد محمد مناع، مدير التربية العسكرية بالجامعة.
حاضر فى الندوة الدكتور إبراهيم سليم، عميد الكلية، حيث تناولت الندوة عن ما هو الذكاء الاصطناعي وتاريخ الذكاء الاصطناعي وتطبيقات الذكاء الاصطناعي فى شتى مجالات الحياة وخاصة تطبيقات الذكاء الاصطناعى فى التعليم والبحث العلمى، وتوضيح الذكاء الاصطناعي التوليدى وأنواعه وأشهر تطبيقات الذكاء الاصطناعي التوليدى واستخدام الذكاء الاصطناعي التوليدى فى التعليم والبحث العلمى
وتم توضح وشرح ضوابط استخدامه في التعليم والبحث العلمى الصادرة من المجلس الأعلى للجامعات وضوابط استخدامه من الأمم المتحدة.
كما تناول توضيح فوائد ومميزات الذكاء الاصطناعى وتم توضيح المخاطر التى ممكن تحدث عن استخدامه.
حضر الندوة مجموعة كبيرة من طلاب الجامعة وطلاب دورة التربية العسكرية، وأعضاء هيئة التدريس والهيئة المعاونة بالكلية ولفيف من أعضاء هيئة التدريس والهيئة المعاونة من جامعة المنوفية.
المصدر: بوابة الفجر
كلمات دلالية: التربية العسكرية الذكاء الاصطناعي طلاب الجامعة الحاسبات والذكاء الاصطناعي عميد كلية الحاسبات والذكاء الاصطناعي الدولة المصرية الجديدة الذکاء الاصطناعی التعلیم والبحث
إقرأ أيضاً:
إلغاء تعهدات جوجل بشأن استخدام الذكاء الاصطناعي في الأسلحة والمراقبة
قامت شركة جوجل بإجراء تعديل كبير على مبادئها المتعلقة بالذكاء الاصطناعي، وهو التغيير الذي يعد الأبرز منذ نشرها لأول مرة في عام 2018. حسبما أفادت صحيفة واشنطن بوست، قامت جوجل بحذف قسم كان يتضمن تعهدات بعدم تصميم أو نشر أدوات ذكاء اصطناعي للاستخدام في الأسلحة أو تكنولوجيا المراقبة.
كانت النسخة السابقة من الوثيقة تتضمن قسماً بعنوان "التطبيقات التي لن نسعى إليها"، وهو ما تم حذفه في النسخة الأخيرة من المبادئ.
بدلاً من ذلك، أضافت جوجل قسمًا جديدًا بعنوان "التطوير والنشر المسؤول"، حيث أكدت على التزامها بتطبيق "الإشراف البشري المناسب والعناية الواجبة وآليات التغذية الراجعة" مع احترام "القانون الدولي وحقوق الإنسان".
فيما يخص الأسلحة، كانت جوجل قد تعهدت سابقًا بعدم تصميم الذكاء الاصطناعي لأغراض "التسبب في إصابة الناس أو تسهيل ذلك". أما في مجال المراقبة، فقد كانت قد وعدت بعدم تطوير تقنيات تنتهك "المعايير المقبولة دوليًا". ومع التحديث الجديد، يبدو أن الشركة قد قررت توسيع نطاق التزامها ليشمل أهدافًا اجتماعية وقانونية أوسع.
خبير أمن معلومات يكشف كيف سيؤثر قرار جوجل على صناع المحتوى قرار جوجل يُثير الجدل.. صُنّاع المحتوى في ورطة جديدةورغم التعديلات، لا تزال جوجل تلتزم بتطوير تقنيات الذكاء الاصطناعي "التي تدعم الأمن القومي وتنمو عالميًا" بالتوازي مع ضمان حماية حقوق الإنسان. وقد صرح المسؤولون في جوجل بأن الذكاء الاصطناعي أصبح "تكنولوجيا عامة الغرض"، ما يتطلب تعديل سياسات الشركة.
التعديل الجديد في سياسات جوجل يأتي بعد فترة من التغيرات داخل الشركة، التي كانت قد واجهت انتقادات في الماضي بسبب تعاونها مع مشاريع حكومية وعسكرية، بما في ذلك عقد "ماجنوم" مع وزارة الدفاع الأمريكية، الذي شهد استقالات جماعية من موظفي الشركة احتجاجًا على استخدام الذكاء الاصطناعي في أغراض عسكرية.
وبالرغم من التحولات الأخيرة في المبادئ، يواصل قسم الأبحاث في جوجل تركيزه على تطبيقات الذكاء الاصطناعي التي تتماشى مع قيم الشركة، وذلك في محاولة لتجنب المخاطر المحتملة وتقديم فوائد مستدامة للمجتمع.