كلية البريمي الجامعية تطرح تخصصات في الذكاء الاصطناعي والأمن السيبراني
تاريخ النشر: 21st, February 2025 GMT
أعلنت كلية البريمي الجامعية عن طرح مجموعة من التخصصات والبرامج الأكاديمية الجديدة التي تواكب متطلبات سوق العمل في المستقبل. جاء هذا الإعلان في إطار سعي الكلية لتطوير برامجها التعليمية ومواكبة التطورات العالمية في المجالات الأكاديمية والمهنية التي تتناسب مع احتياجات سوق العمل المستقبلي، وتشمل التخصصات الجديدة بكالوريوس العلوم في الذكاء الاصطناعي، والذي يهدف إلى إعداد كوادر متخصصة في الذكاء الاصطناعي وتطبيقاته في مختلف القطاعات، وبكالوريوس العلوم في الأمن السيبراني الذي يهدف إلى تأهيل الطلبة لحماية الأنظمة والشبكات من التهديدات الإلكترونية، كما تشمل البرامج الجديدة ماجستير اللغة الإنجليزية في الآداب، الذي يركز على دراسة الأدب الإنجليزي وتحليله، وماجستير اللغة الإنجليزية في اللغويات، الذي يتخصص في دراسة اللغة الإنجليزية من الناحية اللغوية، بما في ذلك تحليل اللغة وتطبيقاتها في التواصل والتعليم.
وتم طرح هذه البرامج بالشراكة الأكاديمية مع جامعة ستيت نورثريدج الأمريكية، مما يعكس التزام الكلية بتقديم تعليم عالي الجودة وفق المعايير الدولية. وتعد كلية البريمي من أوائل مؤسسات التعليم العالي في سلطنة عمان التي حصلت على الاعتماد المؤسسي من الهيئة العمانية للاعتماد الأكاديمي وضمان الجودة (OAAAQA). وأكدت إدارة الكلية أن هذه البرامج تم تصميمها بالتعاون مع خبراء محليين ودوليين لتلبية احتياجات سوق العمل المستقبلي وتعزيز فرص التوظيف للخريجين في مجالات ذات طلب متزايد.
المصدر: لجريدة عمان
إقرأ أيضاً:
من يُلام في خطأ طبي يرتكبه الذكاء الاصطناعي؟
تُبشّر تقنيات الذكاء الاصطناعي المساعد بآفاقٍ واعدة لإحداث نقلة نوعية في الرعاية الصحية، من خلال مساعدة الأطباء في تشخيص المرضى وإدارتهم وعلاجهم. ومع ذلك، فإنّ التوجه الحالي لتطبيق الذكاء الاصطناعي المساعد قد يُفاقم التحديات المتعلقة بمنع الأخطاء وإرهاق الأطباء، بحسب موجز جديد أعده باحثون في جامعتي جون هوبكنز وتكساس.
ويُوضّح الموجز أنّ هناك توقعات متزايدة من الأطباء بالاعتماد على الذكاء الاصطناعي للحدّ من الأخطاء الطبية.
ومع ذلك، لم تُوضَع بعد قوانين ولوائح مناسبة لدعم الأطباء في اتخاذ قراراتهم المُوجّهة بالذكاء الاصطناعي، على الرغم من التبني المُكثّف لهذه التقنيات في مؤسسات الرعاية الصحية.
المسؤولية الطبيةووفق "مديكال إكسبريس"، يتوقع الباحثون أن المسؤولية الطبية ستعتمد على من يعتبره المجتمع مُخطئاً عند فشل التقنية أو ارتكابها خطأً، ما يُخضع الأطباء لتوقعاتٍ غير واقعية بمعرفة متى يجب تجاوز الذكاء الاصطناعي أو الثقة به.
ويُحذّر الباحثون من أنّ مثل هذا التوقع قد يزيد من خطر الإرهاق، وحتى الأخطاء بين الأطباء.
تفسير التقنياتوقالت شيفالي باتيل، الأستاذة المشاركة من جامعة تكساس: "كان الهدف من الذكاء الاصطناعي تخفيف العبء، ولكنه بدلاً من ذلك يُلقي بالمسؤولية على عاتق الأطباء، مُجبراً إياهم على تفسير تقنيات لا يستطيع حتى مُبتكروها شرحها بالكامل".
وأضافت: "هذا التوقع غير الواقعي يُولّد تردداً ويُشكّل تهديداً مباشراً لرعاية المرضى".
ويقترح الموجز الجديد استراتيجياتٍ لمؤسسات الرعاية الصحية لدعم الأطباء من خلال تحويل التركيز من الأداء الفردي إلى الدعم والتعلم التنظيمي، ما قد يُخفف الضغط على الأطباء ويُعزز نهجاً أكثر تعاوناً لدمج الذكاء الاصطناعي.
وقال كريستوفر مايرز، الباحث المشارك: "إن توقع أن يفهم الأطباء الذكاء الاصطناعي ويطبقونه بشكل مثالي عند اتخاذ القرارات السريرية يُشبه توقع أن يُصمّم الطيارون طائراتهم الخاصة أيضاً أثناء تحليقهم بها".
وأضاف: "لضمان تمكين الذكاء الاصطناعي للأطباء بدلاً من إرهاقهم، يتعين على منظمات الرعاية الصحية تطوير أنظمة دعم تساعد الأطباء على تحديد متى وكيف يستخدمون الذكاء الاصطناعي حتى لا يضطروا إلى التشكيك في الأدوات التي يستخدمونها لاتخاذ القرارات الرئيسية".