الشارقة: «الخليج»
أكد خبراء ومختصون في مجال الأمن السيبراني أن سوء استخدام الذكاء الاصطناعي كلف العالم 3 تريليونات دولار عام 2015، فيما يُتوقع أن تصل التكلفة إلى 10 تريليونات بحلول عام 2025، موضحين أن «التزييف العميق» ازداد بنسبة 550% من عام 2019 إلى 2023.
جاء ذلك خلال جلسة رئيسية بالتعاون مع سكاي نيوز عربية بعنوان «الحكومات المرنة تبني دروعاً واقية بالذكاء الاصطناعي.

. ما السبب؟»، أقيمت ضمن فعاليات اليوم الثاني من المنتدى الدولي للاتصال الحكومي، وتحدث خلالها هيكتور مونسيجور، مؤسس شركة ناشئة في الأمن السيبراني وباحث أمني إلكتروني، والدكتور نادر الغزال، الأكاديمي والخبير في الذكاء الاصطناعي والتحول الرقمي، وألان سيمثسون، المؤسس والمشارك لـ(MetaVRse)، والدكتور إنهايوك تشا، أستاذ بمعهد غوانغجو للعلوم والتكنولوجيا، ونائب الرئيس عن التعاون العالمي، كوريا الجنوبية، وأدارها الإعلامي سامي قاسمي.
وقال مونسيجور، إن التزييف العميق والذكاء الاصطناعي ليسا بجديدين، ولكن الفارق أنها أصبحت الآن وسائل متاحة ومتوفرة، لذلك يمكن استغلالها وتطويرها والتفاعل معها من الأشخاص العاديين. وأضاف أن الذكاء الاصطناعي يحمل معه منافع وأغراضاً جيدة مثل الترجمة وفتح مجالات جديدة للتعليم، لكن لا يمكن إغفال الجانب السلبي منه، فهناك أشخاص يستخدمونه لأهدافهم الخاصة، ولديهم نوايا تخريبية وغير سليمة. وتابع: «خلال السنوات العشر الماضية كان لدينا أدوات للتعلم ونمذجة السلوك، وما سنراه في السنوات المقبلة يمثل تطويراً لهذه الأدوات، إلا أن الاستخدام الضار لن يوقفنا عن تطويرها». بدوره، أكد الدكتور نادر الغزال أن التزييف العميق مسألة حساسة تحمل الكثير من المخاوف والمخاطر، موضحاً أن استخدامه في الخداع المالي أو نشر الأكاذيب وغيرها من الأمور، أصبح يعرض سلامة الأفراد وأسس المجتمعات وقيمها للخطر، فهو يقوض الثقة، ويتلاعب بالمشاعر العامة.
ولفت إلى أنه في الوقت الذي تظهر فيه مخاطر الذكاء الاصطناعي، نجد أن هناك إيجابيات تغطي على تلك المخاطر؛ فهناك مجالات يمكن تطويع الذكاء الاصطناعي من خلالها لخدمة الحكومات. من جانبه، أوضح ألان سيمثسون أن بعض المبرمجين ينفقون وقتاً على التزييف العميق بالدخول إلى الإنترنت وتنفيذ مقاطع فيديو أو صوت بشكل مجاني، وفي الوقت الذي يبدو فيه التزييف العميق ذا خطورة كبيرة، إلا أن البعض يطوّعه ويستخدمه في جوانب إيجابية. وأكد على أهمية عدم استخدام تلك التقنية لأسباب سيئة لاسيما أن التزييف العميق يمكن من خلاله تحويل مقطع صوتي إلى عدة لغات وبالتالي يفيد في عملية الترجمة وتحويل الخطابات، إلا أنه يمكن إساءة استخدامه أيضاً عبر نشر معلومات غير حقيقية.
من جهته، قال الدكتور إنهايوك تشا، إن طبيعة البشر تتمثل في قصّ الحكايات ورغبتهم بأن يكونوا مسموعين، وفكرة مثل «التزييف العميق» ساهمت في مضاعفة هذه الرغبة، ولكن السؤال هو: أي نوع من القصص قابل للتصديق؟
وأضاف: أعتقد أن الحكومات يجب أن تفكر بهذا الأمر ولماذا يفعل بعض البشر ذلك، مؤكداً أنه قبل الوصول إلى أي نظام رقابي فإن على الحكومات التفكير بالنزعات البشرية الأساسية وفهم الطرق البديلة لتوجيه سلوك الناس ليصبح أكثر إيجابية.

المصدر: صحيفة الخليج

كلمات دلالية: فيديوهات الأمن السيبراني الذكاء الاصطناعي الإمارات الشارقة المنتدى الدولي للاتصال الحكومي الذکاء الاصطناعی التزییف العمیق

إقرأ أيضاً:

تشخيص الذكاء الاصطناعي يلقى قبولاً.. شرط عدم إخبار المرضى

أفادت دراسة جديدة بأن المرضى لا يمانعون عموماً في الحصول على ملاحظات مكتوبة بواسطة الذكاء الاصطناعي من عيادة طبيبهم، إلا إذا علموا أن الملاحظة جاءت من برنامج حاسوبي.

ملاحظات الذكاء الاصطناعي أكثر تعاطفاً مع المرضى

وكشف البحث، أن المرضى يميلون إلى تفضيل الملاحظات الطبية المكتوبة بواسطة الذكاء الاصطناعي على تلك التي يكتبها الأطباء، حيث سجلت هذه الملاحظات درجات أعلى في الرضا والفائدة والتعاطف.

ومع ذلك، انخفضت درجات المرضى عند علمهم بأن الذكاء الاصطناعي هو من كتب الملاحظة، بحسب "هيلث داي".

وقال فريق البحث من جامعة ديوك: "إن هذا التفضيل انخفض فقط، ولكنه لم يختف، عندما أُبلغ المرضى بأن الرسالة من إعداد الذكاء الاصطناعي".

الشفافية

وقالت الدكتورة أناندا شودري الباحثة الرئيسية: "هناك رغبة في الشفافية، ورغبة في رضا المرضى. إذا كشفنا عن الذكاء الاصطناعي، فماذا سنخسر؟ هذا ما تهدف دراستنا إلى قياسه".

وفي هذه الدراسة، قيم الباحثون استبيانات شارك فيها نحو 1500 مريض في النظام الطبي بجامعة ديوك.

مواضيع الملاحظات

وكانت المواضيع الـ 3 للملاحظات هي طلب تجديد وصفة طبية روتيني، وسؤال حول الآثار الجانبية للدواء، واحتمالية اكتشاف سرطان في فحص التصوير.

وُجِّهت الردود البشرية من فريق من الأطباء طُلب منهم كتابة ردود واقعية على كل سيناريو استبيان، بناءً على كيفية تواصلهم المعتاد مع المرضى.

وولَّد برنامج "تشات جي بي تي" ردود الذكاء الاصطناعي، والتي راجعها الأطباء المشاركون في الدراسة للتأكد من دقتها.

وقال الباحثون إن ملاحظات الذكاء الاصطناعي لم تتطلب سوى تغييرات طفيفة.

وأظهرت النتائج أن المرضى فضّلوا الرسائل التي صاغها الذكاء الاصطناعي بفارق متوسط ​​قدره 0.3 نقطة على مقياس رضا من 5 نقاط.

كما سجلت ملاحظات الذكاء الاصطناعي نتائج أفضل في مدى فائدتها بمقدار 0.3 نقطة، وفي مدى تعاطفها مع المرضى بمقدار 0.4 نقطة.

ومع ذلك، انخفض مستوى الرضا لدى "تشات دي بي تي" مقارنةً بالأطباء عند إخبار المرضى بالرسالة التي كتبها الذكاء الاصطناعي، حيث سجل الذكاء الاصطناعي 0.1 نقطة أقل من الأطباء.

مقالات مشابهة

  • تشخيص الذكاء الاصطناعي يلقى قبولاً.. شرط عدم إخبار المرضى
  • الجديد وصل .. جوجل تتحدى آبل في مجال الذكاء الاصطناعي الشخصي
  • هل يمكن للذكاء الاصطناعي أن يستبدل محرك بحث جوجل؟
  • الصين تدخل الذكاء الاصطناعي إلى مناهج الابتدائية
  • بريطانيا تعلن عن خطط لإعادة هيكلة الدولة وزيادة استخدام الذكاء الاصطناعي
  • بكين تدرج الذكاء الاصطناعي للطلاب من المرحلة الابتدائية
  • دراسة جديدة تكشف عن غزو الذكاء الاصطناعي للمحتوى على الإنترنت
  • OpenAI تكشف عن أدوات جديدة لإنشاء وكلاء الذكاء الاصطناعي
  • رمضان ومطبخ الذكاء الاصطناعي
  • "وكلاء الذكاء الاصطناعي".. ماذا ينتظرنا؟