قال مرصد الأزهر لمكافحة التطرف، إن الصـ هـ اينة لا يتركون أية فرصة للتلاعب بالحقائق واستغلال أي خطأ لمصلحتهم.

مرصد الأزهر ينشر تقريرًا عن جرائم التنظيمات الإرهابية بالدول الإفريقية لأكتوبر 2023 مرصد الأزهر: أكذوبة الاحتلال حول "المنطقة الآمنة" وضحت مع تحولها لـ "ممر للموت"

أضاف مرصد الأزهر: أنه تحت عنوان "الذكاء الاصطناعي يزيف الحرب" نشرت يديعوت أحرونوت مجموعة من الصور المتداولة عن قصف غـ زة، متهمين الداعمين للقضية الفلسطينية باستغلال الذكاء الاصطناعي في تزييف الحقائق وواقع الحرب في القطاع.

وتابع المرصد: ووفق قراءتنا لما ذكرته الصحيفة الصـ هيـ ونية فإنها عمدت إلى استغلال هذه الصور استغلالاً عنصريًا، ففي حين تتهم الداعمين للفلسطينيين بالتحريض والتزييف من أجل جذب التعاطف، استعانت بصور قالت إنها نُشِرت لجنود الاحتلال في أثناء الاحتفال بالنصر وتلقيهم الهتافات المؤيدة لهم معتبرة أن ذلك وإنْ كان لرفع الروح المعنوية للمستوطنين بعد الخسائر التي حصدها الكيان منذ السابع من أكتوبر إلا أنها تضلل الرأي العام العالمي وتجعله لا يعي معاناة الصـ هـ اينة مع الفلسطينيين.

 

 

أوضح المرصد، أن التلاعب بالحقائق وقلبها لمصلحته هي اللعبة المفضلة للكيان الذي أجادها منذ أكثر من 100 عام؛ أي حتى قبل المحرقة (الهولوكوست) التي اتُخِذَت ذريعة لهجرة اليهود إلى أرض فلسـ طين التاريخية واستيطانها وسرقتها من أصحابها. 

ويدعو مرصد الأزهر جميع مستخدمي مواقع التواصل الاجتماعي والقائمين على المواقع الإخبارية بتجنب نشر هذا النوع من الصور المصممة بأدوات الذكاء الاصطناعي؛ وذلك لإحباط مخطط الطعن بالتزوير من إعلام الاحتلال والوسائل الإعلامية الداعمة له في العالم، فقد ظهر توجه حديث واضح لاستغلال الأمر نفسه للتخفيف من حدة معاناة أهلنا في غـ زة لاحتواء الغضب الشعبي في دول العالم.

ويضيف المرصد أنه توجد آلاف الصور الحقيقية التي تظهر معاناة الفلسطينيين في غـ زة مع استمرار عمليات التطهير العرقي والإبادة الجماعية التي يصر الكيان الصـ هيـ وني على المضي فيها قدمًا رغم التنديدات الشعبية والرسمية من مختلف أنحاء العالم، فيمكن للصور والمقاطع الحقيقية نشر الحقائق وإظهارها أمام الجميع ودحض ادعاءات الصـ هـ اينة الخبيثة.

المصدر: بوابة الوفد

كلمات دلالية: مرصد الأزهر الاحتلال مكافحة التطرف الأزهر الذكاء الاصطناعى يديعوت أحرونوت القضية الفلسطينية مرصد الأزهر

إقرأ أيضاً:

ميتا تطلق أداة لكشف فيديوهات الذكاء الاصطناعي

في ظل الانتشار الكبير للمحتوى المزيف عبر الإنترنت، أطلقت شركة "ميتا" أداة جديدة تُعرف باسم "فيديو سيل" (Video Seal) لتوقيع مقاطع الفيديو المنتجة بواسطة الذكاء الاصطناعي بعلامات مائية غير مرئية.

 


تهدف هذه الأداة إلى مكافحة انتشار تقنيات "التزييف العميق" (Deepfake) التي شهدت زيادة كبيرة بأربعة أضعاف بين عامي 2023 و2024، حيث أصبحت تمثل 7% من جميع عمليات الاحتيال على مستوى العالم وفقًا لمنصة التحقق من الهوية "Sumsub".


 

اقرأ أيضاً.. "ميتا" تكشف عن نظارات "أوريون": نافذة على المستقبل بتقنيات مبتكرة"

 


خصائص أداة Video Seal



تتميز أداة "فيديو سيل" بالقدرة على إضافة توقيع مائي غير مرئي إلى الفيديوهات، يمكن كشفه لاحقًا لتحديد مصدر الفيديو وأصله.

ووفقًا لـ "بيير فرنانديز"، الباحث في الذكاء الاصطناعي في "ميتا"، فإن الأداة مصممة لمقاومة التعديلات الشائعة مثل التشويش أو الاقتصاص، كما تتحمل تقنيات الضغط المستخدمة على منصات التواصل الاجتماعي.

بالإضافة إلى التوقيع المائي، يمكن للأداة تضمين رسائل مخفية داخل الفيديوهات تُستخدم لاحقًا لتأكيد أصالتها.



 

أخبار ذات صلة جوجل تطلق"Veo 2".. ثورة جديدة في عالم إنشاء الفيديو "أوبن إي آي" تطرح محرك البحث المدعوم بالذكاء الاصطناعي لجميع المستخدمين


تفوق الأداة مقارنةً بالحلول الأخرى


رغم وجود أدوات مشابهة من شركات مثل "ديب مايند" (DeepMind) التي طورت "SynthID" و"مايكروسوفت"، يرى فرنانديز أن معظم هذه الأدوات لا تقدم مقاومة كافية للضغط أو الكفاءة اللازمة للتشغيل على نطاق واسع، كما أن بعضها يعتمد على تقنيات مخصصة للصور، مما يجعلها غير فعّالة مع الفيديوهات.

 

 

 

التحديات وخطط المستقبل

تعترف "ميتا" بأن أداة "فيديو سيل" تواجه تحديات، منها التوازن بين وضوح العلامة المائية وقدرتها على مقاومة التعديلات المكثفة مثل الضغط الشديد أو التعديلات الكبيرة، مما قد يؤدي إلى فقدان العلامة أو صعوبة استرجاعها.

 

لمواجهة قلة تبني الأداة من قبل المطورين والشركات التي تعتمد حلولًا خاصة بها، أطلقت "ميتا" منصة تقييم علنية تُعرف بـ "ميتـا أومني سيل بنش" (Meta Omni Seal Bench) لمقارنة أداء مختلف تقنيات العلامات المائية. كما ستنظم الشركة ورشة عمل حول هذا الموضوع خلال مؤتمر ICLR، أحد أبرز المؤتمرات في مجال الذكاء الاصطناعي.


اقرأ أيضاً.. "ميتا" تعتمد تقنية التعرف على الوجه لمنع الاحتيال بصور المشاهير




تأمل "ميتا" أن تُشجع هذه المبادرات الباحثين والمطورين على دمج تقنيات العلامات المائية في مشاريعهم لتعزيز مصداقية المحتوى الرقمي ومكافحة المحتوى المزيف بشكل فعال.

المصدر: وكالات

مقالات مشابهة

  • جيل جديد من جيميني يحدث ثورة في الذكاء الاصطناعي
  • أداة الذكاء الاصطناعي الجديدة من Google Whisk تستخدم الصور كمطالبات
  • رئيس جامعة الأزهر يفتتح ندوة الذكاء الاصطناعي بكلية الهندسة
  • الذكاء الاصطناعي دربنا للسعادة أم للتعاسة؟
  • ميتا تطلق أداة لكشف فيديوهات الذكاء الاصطناعي
  • الأزهر ينعي خالد نبهان "الجد" في قصف إسرائيلي على مخيم النصيرات
  • بكلمات مؤثرة.. مرصد الأزهر ينعي الشهيد خالد نبهان صاحب عبارة «روح الروح»
  • صاحب عبارة روح الروح.. مرصد الأزهر ينعي الشهيد خالد نبهان
  • رئيس سدايا: المملكة الثالثة عالميا في مرصد سياسات الذكاء الاصطناعي التابع لمنظمة (OECD)
  • مديرة مرصد الأزهر: المعركة الحالية عن الوعي والأزهر دوره حماية المجتمع