أعلنت شركة ميتا، الإثنين، أنها ستطلق قريباً خدمة خاصة عبر واتس آب، لمحاربة التزييف العميق والمعلومات الخاطئة الناتجة عن الذكاء الاصطناعي.

وبحسب ميتا، فإن هذه الخدمة ستساعد المستخدمين على الحصول على معلومات موثوقة تم التحقق منها بالفعل، بدعم من "تحالف مكافحة المعلومات المضللة"، وشبكة مرتبطة بها من مدققي الحقائق والمنظمات البحثية المستقلة.



وتسمح المبادرة للمستخدمين بالإبلاغ عن التزييف العميق الذي يتم عبر الذكاء الاصطناعي، عن طريق برنامج الدردشة المخصص على واتس آب، والذي يدعم العديد من اللغات، ليتم إعادة توجيه الرسائل التي يرسلها المستخدمون، إلى مدققي الحقائق وشركاء الصناعة والمختبرات الرقمية الذين سيقومون بتقييم المحتوى والتحقق منه والكشف عما إذا كانت المعلومات صحيحة أو ملفقة.

وبحسب صحيفة إنديان إكسبرس، فإن البرنامج لديه نهج مكون من أربع ركائز، هي الكشف والوقاية والإبلاغ وزيادة الوعي حول الانتشار المتصاعد للتزييف العميق، إلى جانب بناء أداة مهمة تسمح للمستخدمين بالوصول إلى معلومات موثوقة.

وبينما تعمل ميتا على برنامج الدردشة الآلي، يعمل تحالف مكافحة المعلومات الخاطئة على إنشاء "وحدة تحليل التزييف العميق" المركزية، التي ستساعد المستخدمين على إدارة جميع الرسائل الواردة التي يتلقونها.

وأشارت ميتا إلى أنها دخلت في شراكة مع 11 منظمة مستقلة لتدقيق الحقائق بهدف تحديد المعلومات الخاطئة على المنصة والتحقق منها ومراجعتها.

يذكر أن تطبيق واتس آب أصبح في الآونة الأخيرة، مرتعاً للمعلومات المضللة التي يتم نشرها عن طريق  إعادة توجيه الرسائل، وعلى الرغم من أن ميتا حاولت اتخاذ إجراءات صارمة ضد المشكلة من خلال تدابير مثل الحد من عمليات إعادة التوجيه وإلغاء تنشيط الحسابات المزيفة، إلا أنها لم تتمكن من إيقاف انتشار المعلومات الخاطئة على المنصة.

المصدر: أخبارنا

كلمات دلالية: المعلومات الخاطئة التزییف العمیق

إقرأ أيضاً:

أخلاقيات الذكاء الاصطناعي

في مقالي السابق بعنوان: «الفن والذكاء الاصطناعي» تناولت هذا الموضوع من بُعد واحد فقط، وهو التساؤل مدى مشروعية الفن المصنوع وفقًا للذكاء الاصطناعي من الناحية الإبداعية، ونفيت عن هذا الفن المصنوع صفة الإبداع، مع التسليم بأهميته ودوره في مجالات معينة لا تُحسَب على الفنون الجميلة. وبوسعنا هنا التساؤل عن مدى مشروعية الفن المصنوع وفقًا للذكاء الاصطناعي من الناحية الأخلاقية. غير أن هذا سيكون مجرد مثال من الأمثلة على مسألة «أخلاقيات الذكاء الاصطناعي» التي تتعدد وتتباين في تطبيقاتها بناءً على تعدد وتباين مجالات الذكاء الاصطناعي ذاته، إذ إنها لا تقتصر على مجال الفن وحده، وإنما تمتد لتشمل كل المجالات العلمية والمعرفية عمومًا التي تؤثر في كل مناحي حياتنا، فهي تمتد لتشمل على سبيل المثال: عملية التفاعل الأخلاقي مع الروبوتات الخاصة بالرعاية الطبية والاجتماعية؛ واستخدام الأسلحة في الحروب؛ فضلًا عن استخدام برامج الذكاء الاصطناعي في عملية التزييف المتقن في مجال الفن والثقافة.

لعل الأخلاقيات المتعلقة باستخدام الآلة الذكية هي أكثر المسائل التي ترِد على الأذهان حينما نتطرق إلى مناقشة أخلاقيات الذكاء الاصطناعي. وهناك اعتقاد شائع بأنه حينما يتم تصميم الآلة الذكية لكي تتخذ مواقف وقرارات، فإن كل شيء يكون على ما يُرَام؛ لأن الناس يعتقدون أن الآلات - بخلاف البشر- لا ترتكب أخطاء، ولا تتورط في اتخاذ قرارات منحازة. ولكن هذا الاعتقاد واهم؛ لأن الآلات الذكية المصممة لكي تعمل باعتبارها «روبوتات» هي آلات من صنع البشر، وهي يتم تزويدها بمعلومات من صنع البشر. وأنا أستخدم هنا كلمة «معلومات» على سبيل التبسيط؛ لأن ما يتم تزويد الآلة به هو برامج خوارزمية شديدة التعقيد، والآلة تكون مصممة على هذا الأساس وعلى الغرض الذي أُنشِئت من أجله. وعلى هذا، فإن تصميم الآلة نفسه يكون عُرضة للتحيز الذي يمكن أن يحدث بطريقة قصدية أو بطريقة غير قصدية. ولهذا يرى بعض الباحثين أن الآلة تواجه المشكلات الأخلاقية نفسها التي نواجهها نحن البشر؛ وهي في النهاية تتخذ القرارات التي سنتخذها أو نود أن نتخذها لو كنا في موقفها.

غير أن المسألة الأخلاقية هنا أعقد من ذلك بكثير؛ لأن برمجة الآلات الذكية وفقًا لخوارزميات معينة لا يعني أن هذه الآلات سوف تتخذ دائمًا قرارًا واحدًا ثابتًا وصائبًا باستمرار؛ لأنها قد تتلقى معطيات مستمدة من العالم الخارجي لا تتطابق مع برمجة الآلات للاستجابة للمعطيات؛ إذ إن المعطيات المستمدة من العالم الخارجي قد تكون ملتبسة مع معطيات أخرى مشابهة بحيث لا تستطيع الآلة أن تحدد بدقة المعطيات المقصودة؛ ويكون عليها أن تتخذ قرارًا قد يكون خاطئًا. ويتضح هذه بوجه خاص في استخدام الأسلحة المبرمجة وفقًا للذكاء الاصطناعي، والتي تتصرف ذاتيًّا؛ ومن ثم تصبح عُرضة للخطأ. وليس ببعيد ما يحدث في عالمنا الراهن؛ إذ نجد أن إسرائيل تستخدم هذا النوع من الأسلحة في قتل الفلسطينيين، بل استخدمته في قتل فريق من أعضاء منظمة الغذاء العالمي، متذرعة بهذه الحجة العلمية، وهي أن هذه الأسلحة قابلة لارتكاب الخطأ، ولكنه ليس خطأ بشريّا، أي أنها ليست مبرمجة وفقًا لهذا القصد.

ولكن أخلاقيات الذكاء الاصطناعي تصبح أكثر تعقيدًا حينما ننظر في استخدام الروبوتات في مجال الرعاية الطبية والاجتماعية بوجه عام. ولقد تطورت صناعة هذه الروبوتات وبرمجتها بشكل مذهل، بحيث أصبحنا نجد في عالمنا الآن روبوتات تشبه البشر من الجنسين بمختلف أشكالهم وألوانهم، وهي روبوتات مبرمَجة على أداء الخدمات والرعاية الفائقة، بل التعبير عن المشاعر المتبادلة. وقد أطلق كل هذا عنان الخيال لدى السينمائيين الذين صنعوا أفلامًا تصور هذا الموضوع وتتنبأ بما يمكن أن يؤول إليه في المستقبل القريب. وهناك عشرات الأفلام التي تمثلت هذا الموضوع خلال العقد الأخير، ونال بعضها جوائز الأوسكار. وهناك فيلم - لا يحضرني اسمه - يعد مثالًا جيدًا هنا. يحكي الفيلم عن استعانة زوجين بروبوت يقوم بالخدمة والرعاية الاجتماعية الفائقة، بناءً على إعلان شركة صانعة عن المزايا العديدة لهذا الروبوت الذي هو أحدث إنتاجها. ولأن الروبوت كان مصممًا لأداء كل ما هو مطلوب منه بكل دقة، بل كان أيضًا مصممًا للتعبير عن مشاعره من خلال تعبير صوته ووجهه أيضًا؛ فقد نشأت علاقة عاطفية بين الروبوت والزوجة، واعتاد كل منهما البقاء مع الآخر. وليس ببعيد عنا ما تداولته الأخبار مؤخرًا عن زواج بين شاب ياباني والأنثى الروبوت التي يرافقها! ومثل هذا النوع من الأخبار يتكرر من حين لآخر هنا وهناك.

ولكن أخلاقيات الذكاء الاصطناعي في مجال الفن تتبدى بشكل مختلف، ودور العنصر الإنساني فيه يكون أكثر اتساعًا، والمشكلة الأخلاقية الأساسية هنا تكمن في إمكانية استخدام الآلة الذكية (المبرمجة) في عملية التزييف وانتهاك حقوق الملكية الفكرية: فلقد أصبح من المألوف قيام بعض المحترفين بسرقة «التيمة الأساسية» في لوحة ما، وإدخال بعض التعديلات والرتوش على تفاصيل اللوحة لكي تبدو في النهاية وكأنها عمل إبداعي! كما أن مستخدمي الذكاء الاصطناعي يمكنهم محاكاة أسلوب فنان ما وإنتاج أعمال ينسبونها إليه، ولكن من حسن الحظ أن هناك برامج في الذكاء الاصطناعي نفسه يمكنها الكشف عن هذا التزييف.

كل ما سبق يعني أن الذكاء الاصطناعي هو- كالتكنولوجيا عمومًا- أداة محايدة يمكن حسن استخدامها أو إساءة استخدامها؛ وبالتالي فإن هناك حاجة إلى وضع حدود للذكاء الاصطناعي، من خلال مبادئ تشريعية ومواثيق أخلاقية دولية لها طبيعة إلزامية.

د. سعيد توفيق أستاذ علم الجمال والفلسفة المعاصرة بجامعة القاهرة

مقالات مشابهة

  • أخلاقيات الذكاء الاصطناعي
  • اعتماد نتائج 3 مستويات من برنامج الذكاء الاصطناعي الحيوي في جامعة كفر الشيخ
  • شروط الالتحاق ببرنامج هندسة الاتصالات والمعلومات بجامعة حلوان.. تعرف عليها
  • «ميتا» تختبر روبوتات الذكاء على إنستجرام
  • الجبورى: تقاس قدرات الدول وإمكاناتها بمدى تحكمها في تكنولوجيا المعلومات والإستفادة من البيانات الضخمة
  • ميتا تغير تسمياتها لصور الذكاء الاصطناعي بعد شكاوى المصورين
  • أفضل 5 بدائل شات جي بي تي المتاحة عبر الإنترنت
  • ميتا تتيح ابتكار شخصيات ذكاء اصطناعي مخصصة
  • ميتا تخطط لإطلاق روبوتات المحادثة الآلية على إنستغرام
  • رئيس جامعة مصر للمعلوماتية: الدولة تستخدم الذكاء الاصطناعي لتوثيق وترميم الآثار وإدارة المتاحف منذ التسعينيات