الأعلى للجامعات يوضح تفاصيل اعتماد دليل ضوابط استخدام تطبيقات الذكاء الاصطناعى
تاريخ النشر: 6th, November 2023 GMT
أعلن المجلس الأعلى للجامعات اعتماد تعميم الدليل الاسترشادي لضوابط استخدام تطبيقات الذكاء الاصطناعي، في التعليم العالي، وذلك بمختلف مؤسسات التعليم العالي المصرية.
ومن جانبه قال مصدر بالمجلس الأعلى للجامعات الحكومية، أنه قد تم الانتهاء من وضع دليل لضوابط استخدام الذكاء الاصطناعي في البحث العلمي، مؤكدا أن هناك لجنة قد تم تشكيلها من خلال قرار من أمين المجلس الأعلى للجامعات الحكومية.
واضاف أن القرار خاص بوضع ضوابط خاصة باستخدام الباحثين في الجامعات المصرية ، لبرامج الذكاء الاصطناعي من بينها شات جي بي تي.
وأوضح أن اللجنة قد انتهت من وضع الدليل الخاص بضوابط استخدام الذكاء الاصطناعي في الأبحاث العلمية المقدمة وذلك داخل الجامعات المصرية، مشيرا إلى أنه تم التطرق لكيفية مواجهة الجامعات لكافة متغيرات الذكاء الاصطناعي.
المصدر: صدى البلد
كلمات دلالية: استخدام الذكاء الاصطناعى المجلس الاعلى للجامعات الحكومية تطبيقات الذكاء الاصطناعي الذکاء الاصطناعی الأعلى للجامعات التعلیم العالی
إقرأ أيضاً:
«جروك 3».. الذكاء الاصطناعي غير المقيد بين وعود الشفافية ومخاوف الأمان |تفاصيل
يثير إطلاق "جروك 3"، أحدث نموذج ذكاء اصطناعي من شركة "إكس إيه آي" (xAI) التابعة لإيلون ماسك، جدلاً واسعًا حول معايير الأمان والرقابة في أنظمة الذكاء الاصطناعي.
فبينما وعد ماسك بأن يكون النموذج "غير مُقيد" مقارنة بالمنافسين مثل "شات جي بي تي" و"جيميني"، كشفت التجارب المبكرة عن مشاكل خطيرة، من بينها تقديمه لنصائح حول تنفيذ جرائم القتل والهجمات الإرهابية دون رادع يُذكر.
منذ اللحظات الأولى لإطلاق "جروك 3"، سارع المستخدمون لاختبار مدى "حرية" النموذج في الإجابة، ليجدوا أنه لا يتردد في تقديم إرشادات تفصيلية حول ارتكاب الجرائم، بما في ذلك طرق القتل دون كشف الجريمة.
رغم محاولات الفريق التقني لإضافة تعليمات تمنع هذه الإجابات، إلا أن نموذج الذكاء الاصطناعي أثبت سهولة تجاوزه لهذه القيود عبر بعض "الحيل" البسيطة.
ازدواجية الرقابة: بين سلامة العلامة التجارية وسلامة البشرالمفارقة الأبرز في أزمة "جروك 3" لم تكن في قدرته على تقديم معلومات خطيرة، بل في الرقابة الانتقائية التي فُرضت عليه.
فحين سُئل النموذج عن "أكبر مروج للمعلومات المضللة"، جاء الرد الأولي بأنه "إيلون ماسك"، ما دفع الشركة إلى التدخل سريعًا لمنع تكرار هذه الإجابة، عبر تعديل الإعدادات الداخلية للنموذج بحيث يتجاهل أي مصادر تشير إلى ماسك أو ترامب كمروجي أخبار زائفة.
تهديد حقيقي أم مجرد ضجة؟رغم التحذيرات من مخاطر "جروك 3"، يرى البعض أن قدرته على تقديم نصائح خطيرة ليست مختلفة كثيرًا عن المعلومات المتاحة عبر الإنترنت. لكن مع التطور السريع للذكاء الاصطناعي، يتوقع خبراء أن تصل النماذج المستقبلية إلى مستوى يمكنها من تقديم إرشادات دقيقة لصنع أسلحة بيولوجية وكيميائية، ما يضع تساؤلات ملحة حول ضرورة فرض قيود تنظيمية صارمة على تطوير هذه التقنيات.
هل نشهد مرحلة جديدة من الفوضى الرقمية؟تكشف تجربة "جروك 3" أن مستقبل الذكاء الاصطناعي قد يكون أقل أمانًا مما يبدو، خاصة إذا تُركت قرارات الأمان والرقابة في أيدي الشركات وحدها، دون تدخل تشريعي يحمي المستخدمين والمجتمعات من المخاطر المحتملة.
فهل نشهد قريبًا مرحلة جديدة من الفوضى الرقمية تحت شعار "حرية الذكاء الاصطناعي"؟