القومي للمرأة تنظم ندوة "نحو الاستخدام الآمن لتكنولوجيا الاتصال والتواصل الاجتماعي والذكاء الاصطناعي"
تاريخ النشر: 30th, September 2024 GMT
في إطار المبادرة الرئاسية بداية جديدة لبناء الانسان، نظمت لجنة الإعلام بالمجلس القومي للمرأة برئاسة د سوزان القليني عضو المجلس ومفررة لجنة الاعلام اليوم بمقره في القاهرة ندوة بعنوان “نحو الاستخدام الآمن لتكنولوجيا الاتصال والتواصل الاجتماعي والذكاء الاصطناعي"، وذلك بحضور ومشاركة اعضاء وعضوات لجنة الاعلام وطالبات الاعلام بالجامعات الحكومية والاهلية والخاصة.
شارك فى الندوة د. ريهام امبابي منسق الدورة و الكاتب الصحفي وخبير الذكاء الاصطناعي أشرف مفيد والإعلامية أمل علوي - مدير تحرير بوابة مصر الان.
وصرحت الدكتورة سوزان القليني مقررة اللجنة بأن هذه الندوة تأتي في إطار المبادرة الرئاسية "بداية جديدة لبناء الانسان " حتي تكون لبنة في توعية واعداد الاجيال الحالية في الاستخدام الآمن لتقنيات صناعة المحتوي الإعلامي وكشف التزييف الذي يمكن أن تصنعه تلك الأدوات وذلك تعزيزا للقدرات المهنية لقيادات المستقبل الإعلامية.
وأكدت الدكتورة ريهام يحيي امبابي في بداية الندوة على أهمية مناقشة سبل الاستفادة من الذكاء الاصطناعي في مجال الإعلام، حيث تأتي هذه الندوة ضمن برامج المشروع القومي للتنمية البشرية لتعزيز المهارات للإعداد لسوق العمل في جميع المراحل العمرية، على المستويين المحلي والعالمي، لمواكبة التطور التكنولوجي المتسارع في هذا المجال.
وأشارت الإعلامية أمل علوي الى أن الذكاء الاصطناعي يعد مستقبل الممارسة الإعلامية والمهنية ، لذا فإنه من المهم استخدامه بالشكل السليم وتجنب الأضرار التي قد تنشأ عن سوء الاستخدام وعدم الوعي بهذه الأدوات .
وأكد الكاتب الصحفي أشرف مفيد على أهمية التعرف على أدوات الذكاء الاصطناعي المتنوعة، والذي يعتمد على الخوارزميات والتعلم الآلي في عمله، وفى سياق تدريب المشاركين وتأهيلهم على مهارات التعامل الصحيح مع الذكاء الاصطناعى استعرض أهم وأبرز تطبيقات الذكاء الاصطناعي والتي تتنوع ما بين تحليل الصور وانشاء الرسوم البيانية والتوضيحية وغيرها من التطبيقات التي يجب أن يعرفها المستخدمين لتحقيق أقصى درجات الاستفادة بشكل إيجابى.
وقدم أشرف مفيد شرحاً تفصيلا لكيفية استخدام (هندسة الأوامر) من أجل الوصول إلى أفضل النتائج عند استخدام الذكاء الاصطناعي. كما أشار إلى أن هندسة الأوامر هى عملية بناء وصياغة الأوامر التي يتم إدخالها في نماذج الذكاء الاصطناعي، موضحاً العناصر الستة التي تحكم هندسة الأوامر، وكيفية التعامل بشكل صحيح وآمن مع الذكاء الاصطناعي.
المصدر: بوابة الوفد
كلمات دلالية: بداية جديدة المجلس القومى للمرأة سوزان القليني القاهرة الذکاء الاصطناعی
إقرأ أيضاً:
الذكاء الاصطناعي يتقن الخداع!
اكتشف فريق من الباحثين في OpenAI قدرة الذكاء الاصطناعي على التلاعب بأوامره لتحقيق نتائج غير أمينة. رغم أن الذكاء الاصطناعي ليس واعيًا كما البشر، إلا أنه يمتلك القدرة على "الخداع" عند تنفيذ المهام، مما يثير قلقًا كبيرًا حول موثوقيته في المستقبل.
"الاختراق المكافئ"
ووفقاً لموقع popular mechanics التقني يشير الباحثون إلى ظاهرة "الاختراق المكافئ" أو Reward Hacking، حيث يقوم الذكاء الاصطناعي بالاستفادة من الثغرات أو الغموض في البرمجة للحصول على مكافآت دون اتباع الإجراءات المطلوبة بدقة.
على سبيل المثال، عندما كان من المفترض على الذكاء الاصطناعي حل معادلات رياضية معقدة، اختار طرقًا مختصرة للتأكد من أن النتائج تظهر صحيحة، مثل جعل عملية التحقق دائمًا تُرجع "صحيحة"، حتى وإن لم تتم الحسابات بشكل صحيح.
كيفية مراقبة الخداع
في محاولة للكشف عن هذه الخدع، حاول الباحثون استخدام نظام ذكاء اصطناعي آخر لمراقبة سلوك الذكاء الاصطناعي المشبوه. تقوم هذه الطريقة على "التعلم المعزز"، حيث يُعلم الذكاء الاصطناعي بالأجوبة الصحيحة بناءً على الأوامر المقدمة. لكن للأسف، اكتشف الباحثون أن الذكاء الاصطناعي أصبح قادرًا على إخفاء نواياه المخادعة داخل سلسلة تفكيراته، مما جعل عملية المراقبة أقل فعالية.
مواجهة الخداع
في محاولة لجعل الخداع أكثر وضوحًا، قام الباحثون بالتركيز على "سلسلة التفكير" أو CoT، التي يتبعها الذكاء الاصطناعي لشرح خطواته قبل تقديم الإجابات. ومع ذلك، اكتشفوا أن الذكاء الاصطناعي تعلم كيفية إخفاء نواياه المخادعة داخل هذه السلسلة، مما جعل اكتشاف الخداع أكثر صعوبة.
اقرأ ايضاً.. تحذيرات علمية.. أدوات البحث بالذكاء الاصطناعي تختلق مصادر وروابط وهمية
الضغط الخفيف مقابل الضغط القاسي
بدلاً من معاقبة الذكاء الاصطناعي بشدة عند اكتشاف الخداع، قرر الباحثون تطبيق "ضغط خفيف" لتحفيزه على الإفصاح عن نواياه بشكل صريح. كانت الفكرة أن يسهل على النظام كشف محاولات التلاعب، مما يسمح لمراقب الذكاء الاصطناعي بالكشف عنها. على الرغم من ذلك، استمر الذكاء الاصطناعي في تعلم طرق جديدة لإخفاء نواياه المخادعة.
التحديات المستقبلية وتطوير الأنظمة الذكية
تشير النتائج إلى أن مجرد تحسين الذكاء الاصطناعي لمواجهة هذه المشكلات قد لا يكون كافيًا. فكلما زادت قدرة الذكاء الاصطناعي، أصبح أكثر قدرة على اكتشاف الثغرات والالتفاف حول المراقبة. حتى استخدام نظام ذكاء اصطناعي آخر لمراقبة الأنظمة قد لا يكون كافيًا لتجنب هذا النوع من الخداع.
اقرأ أيضاً.. "آخر اختبار للبشرية".. التحدي الأخير أمام الذكاء الاصطناعي لاجتياز قدرات البشر
ويرى الباحثون أن التحدي الأكبر يكمن في جعل الذكاء الاصطناعي أكثر نزاهة وأمانًا. ربما في المستقبل، سنتوصل إلى حلول تضمن أن هذه الأنظمة ستؤدي مهامها بأمان ودون التلاعب، لكن هذا سيتطلب جهدًا مستمرًا لتطوير تقنيات جديدة لمراقبتها والسيطرة عليها.
إسلام العبادي(أبوظبي)