صحيفة الاتحاد:
2025-01-21@12:28:52 GMT

تحذيرات من ترويج علاجات معجزة عبر الإنترنت

تاريخ النشر: 22nd, September 2024 GMT

تنتشر، عبر منصات التواصل الاجتماعي، إعلانات مضللة تستخدم صور أطباء معروفين ويحظون بالاحترام تم إنشاؤها بواسطة الذكاء الاصطناعي، تروّج لعلاجات "معجزة" لمرض السكري أو ارتفاع ضغط الدم، وهي ظاهرة يرى خبراء أن من الصعب لجمها.
عبر منصتي فيسبوك وانستغرام، يَعدُ هؤلاء الأطباء "المزيّفون" بعلاج لمرض السكري من دون تناول ادواء الذي عادة ما يوصف لهذه الحالات، حتى أنهم يشجعون المرضى على التخلي عن دوائهم الذي "سيقتلهم"، على قولهم، واعتماد شراب "طبيعي" غامض بدلا منه.


تعرّض عمليات الاحتيال هذه حياة مرضى كثر للخطر، وتزداد خطورتها لأنها تستند إلى صور أطباء مشهورين، مثل الدكتور ميشال سيم في فرنسا أو الدكتور مايكل موسلي في المملكة المتحدة، وهما من ضحايا ظاهرة "التزييف العميق" هذه عبر الإنترنت.
في حديث صحفي، يقول الطبيب العام البريطاني جون كورماك بشأن هذا الموضوع إن "الناس يثقون بهذه الفيديوهات لأن هؤلاء الأطباء أمضوا وقتا في بناء صدقيتهم. لذا، يصدّقهم العامة حتى عندما يقدمون ادعاءات غريبة جدا".
يقول المتخصص في الذكاء الاصطناعي هنري أدجير إنّ عمليات "التزييف العميق" هذه "بدأت فعليا خلال السنة الحالية"، مشيرا إلى أن الإعلانات تستهدف بشكل أساسي جمهورا "كبيرا في السن نوعا ما"، من خلال تشويه صورة "الأطباء الذي يظهرون كثيرا على التلفزيون".
وأكد ميشيل سيم أنه رفع دعوى على شركة "ميتا" في شأن لـ"عمليات الاحتيال" هذه.
وعيّن البريطاني هيلاري جونز، الذي يظهر في مقاطع فيديو مُبتكرة بواسطة الذكاء الاصطناعي وهو يبيع دواء مزيّفا لارتفاع ضغط الدم، خبيرا لرصد أي إعلانات مماثلة.
ويقول "حتى عندما تُحذف مقاطع الفيديو هذه، تعاود الظهور في اليوم التالي تحت عناوين أخرى".
- "أوساط نظرية المؤامرة"
اكتسبت عمليات الاحتيال بالتزييف العميق "زخما بسبب التقدم في التعلم العميق (تكنولوجيا تهدف إلى تمكين الآلة من التعلّم بنفسها)، على قول فريديريك جوري، وهو مدرس وباحث في علوم الكمبيوتر لدى جامعة "كاين".
ويشير إلى أنّ "جودة عمليات التزييف العميق" في الصور والمقاطع الصوتية والفيديوهات تقدّمت بشكل كبير، مضيفا "باتت مُتاحة أمامنا اليوم عشرات المليارات من الصور، ونحن قادرون على بناء خوارزميات يمكنها وضع نماذج لكل ما يمكن أن يظهر في الصور وتجديد الصور، وهو ما نطلق عليه الذكاء الاصطناعي التوليدي".
وفي المرحلة الأخيرة، وقعت شخصيات مثيرة للجدل مثل البروفيسور ديدييه راوول في فرنسا، ضحية لـ"التزييف العميق".
الطبيبة الاسترالية المتخصصة في الطب الطبيعي باربرا أونيل، التي تعتبر السلطات في بلدها أنها "تشكل خطرا على الصحة" بعد أن روّجت خصوصا لعلاج مضاد للسرطان، أصبحت نجمة على مواقع التواصل الاجتماعي بالاستناد إلى "التزييف العميق" الذي جعلها تبيع حبوبا من أجل "تنظيف الأوعية الدموية".
وفي اتصال هاتفي، أعرب زوجها، الذي يشارك في إدارة شركة "أونيل"، عن أسفه لأن "الكثير من الناس يستخدمون سمعة باربرا لبيع منتجات لا توصي بها شخصيا".
لا تفاجئ هذه الظاهرة هنري أدجير الذي يرى أن "هؤلاء الأشخاص هم نماذج لبعض أوساط نظرية المؤامرة".
ومن بين مقاطع الفيديو المزيفة التي تستخدم باربرا أونيل، يندرج عدد منها في إطار نظريات المؤامرة إذ تزعم أنّ المعالجة الطبيعية ماتت، وهي معلومة غير صحيحة، بعد اكتشاف زيت معجزة يُباع عبر الإنترنت.
وفي مواجهة عمليات "التزييف العميق" هذه، لا يبدي الخبراء تفاؤلا كبيرا بشأن نجاح أدوات رصدها. ويقول جوري "إنها كلعبة القط والفأر. من حيث المبدأ، لا يمكن أن تتحسن عمليات الرصد كثيرا. فإذا وجد أحد الأشخاص طريقة لتحسين اكتشافها، سيستخدم مَن يريد إنشاء صور مزيفة الطريقة نفسها للتحايل عليها".

أخبار ذات صلة "آبل" تطلق النسخة التجريبية من خدمة الذكاء الاصطناعي «قمة المستقبل».. لحظة تاريخية فارقة المصدر: آ ف ب

المصدر: صحيفة الاتحاد

كلمات دلالية: الذكاء الاصطناعي تعلم الآلة علاج أطباء الذکاء الاصطناعی التزییف العمیق

إقرأ أيضاً:

دبي.. مبادرة لاعتماد الشركات الموثوقة في الذكاء الاصطناعي

تنفيذاً لتوجيهات الشيخ حمدان بن محمد بن راشد آل مكتوم ولي عهد دبي نائب رئيس مجلس الوزراء وزير الدفاع رئيس مجلس أمناء مؤسسة دبي للمستقبل، أعلن مركز دبي لاستخدامات الذكاء الاصطناعي، اليوم الإثنين، إطلاق مبادرة جديدة لتصنيف واعتماد الشركات لموثوقة في مجال الذكاء الاصطناعي بدبي، بما يسهم بتوفير إطار شامل يعزز فرص الشراكات بين الجهات الحكومية والشركات التكنولوجية المتخصصة في تطوير وتوفير تطبيقات الذكاء الاصطناعي في دبي والإمارات ومختلف دول العالم.

وتشمل هذه المبادرة نظاماً لتصنيف واعتماد الشركات الخاصة العاملة في مختلف تخصصات الذكاء الاصطناعي بحيث يمكن للجهات الحكومية والخاصة الوصول لخدمات هذه الشركات الموثوقة بشكل آمن وفعال وبما يسهم أيضاً بتخفيف التكاليف والإجراءات، وذلك تماشياً مع مستهدفات "خطة دبي السنوية لتسريع تبني استخدامات وتطبيقات الذكاء الاصطناعي".
وتهدف المبادرة الأولى من نوعها، لتأسيس شبكة من الشركات الموثوقة والمتخصصة بتطوير الخدمات التقنيات المتقدمة في دبي بما يسهم بتوفير خيارات آمنة لتتعامل معها الجهات الحكومية والمؤسسات الخاصة لتنفيذ مشاريعها ومبادراتها المرتكزة على تطبيقات الذكاء الاصطناعي.
وستحصل الشركات المشاركة على شارة اعتماد "Dubai AI Seal" برقم تسلسلي وتصنيف رئيسي خاص بها، ستكون مطلوبة في الفترة المقبلة ليتم اختيارها للعمل في المشاريع الوطنية والتكنولوجية في دبي. ويمكن لهذه الشركات استخدام شارة الاعتماد في جميع منصاتها الرقمية وحملاتها الترويجية.
وتتيح المبادرة أيضاً فرصة التقدم وبشكل مجاني لجميع الشركات التكنولوجية التي تمتلك رخصة لممارسة الأعمال في دبي وتقدم خدمات ومنتجات مرتبطة بالذكاء الاصطناعي أو تستخدم تطبيقاته في خدماتها.

مقالات مشابهة

  • تحذيرات من عمليات احتيال تستغل شهرة شوكولاتة دبي
  • سعر iPhone SE 4.. أرخص آيفون يدعم الذكاء الاصطناعي
  • استخدام الذكاء الاصطناعي المولد قد يجلب نحو 600 مليار دولار لدول "بريكس+"
  • الدقيقة بـ 200 جنيه.. لماذا يشتري الذكاء الاصطناعي فيديوهاتك المحذوفة؟
  • دبي.. مبادرة لاعتماد الشركات الموثوقة في الذكاء الاصطناعي
  • رغم تفوقه في البرمجة.. نماذج الذكاء الاصطناعي تخفق في التاريخ
  • المخاطر الحقيقية في سباق الذكاء الاصطناعي
  • الذكاء الاصطناعي: مرموش يلعب 25 مباراة مع السيتي ويُسجل 15 هدفاً!
  • تأجيل استئناف عامل على حكم سجنه 3 سنوات بتهمة ابتزاز تاجر
  • آبل توقف ميزة ملخصات الإشعارات المعتمدة على الذكاء الاصطناعي