بالصور: الذكاء الاصطناعي يزيّف مشاهد الاعتداءات على لبنان… كيف نكشفها؟
تاريخ النشر: 12th, October 2024 GMT
بالتزامن مع الحرب بين حزب الله واسرائيل، تزداد المخاوف بشأن قدرة تقنية التزييف العميق على نشر الأخبار المضللة من خلال استغلال الذكاء الاصطناعي لصناعة محتوى زائف، بهدف اثارة مشاعر الغضب والتلاعب بانطباعات المتابعين وعواطفهم. فمئات الصور والقصص والأخبار والمعلومات المزيفة، اجتاحت مواقع التواصل الاجتماعي واكتسبت انتشارا واسعا مرتبطا بمتابعة مجريات النزاع.
منذ بداية الحرب، تم استخدام الصور المعدلة رقميا لتقديم منشورات وصور وفيديوهات كاذبة.
على سبيل المثال، تم تداول صورة على منصات مختلفة، تدعي أنها تظهر عواقب هجوم صاروخي على قاعدة رامات ديفيد الجوية في إسرائيل من قبل حزب الله في 22 أيلول. فخبر استهداف حزب الله قاعدة ومطار رامات ديفيد بعشرات الصواريخ من طراز "فادي" صحيح انما الصورة المنتشرة كانت مزيفة ومعدلة عبر تقنيات الذكاء الاصطناعي.
الى ذلك، أظهر "مونتاج" فيديو لضربات جوية في بيروت، نُشرعلى منصة "أكس"، حرائق هائلة في أفق المدينة ليتبيّن لاحقا أن المشهد الأكثر دراماتيكية صنع بواسطة الذكاء الاصطناعي.
وتم أخذ المقطع، الذي يُزعم أنه يُظهر لقطات نارية للقصف الإسرائيلي في لبنان، من مقطع فيديو قصير نُشر على TikTok بواسطة المستخدم @digital.n0mad ووضع علامة على الفيديو على أنه في بيروت.
هل من أداة خاصّة لكشف الصور؟
هناك أدوات عدّة لكشف هذه الصور وأخرى قيد التطوير، إلا أنّ النتائج التي تقدّمها ليست حاسمة، وقد تعطي نتائج غير دقيقة، بحسب تجارب قام بها صحافيو وكالة "فرانس برس".
ويشرح ديفيد فيشينغر المهندس المتخصّص في الذكاء الاصطناعيّ في جامعة فيينا للتكنولوجيا أنّ عمل الذكاء الاصطناعي لا يقوم على مجرّد اقتطاع أجزاء من صورٍ لإعادة تركيبها، إذ "يلجأ إلى ملايين بل مليارات الصور لاستخراج بيانات منها، ثمّ يعيد استخدامها لتوليد صورة جديدة تماماً".
لهذه الأسباب، لا يمكن لمنصّات كشف الذكاء الاصطناعي أن تصل لنتائج حاسمة في هذه المرحلة.
وبحسب الخبراء، أفضل طريقة لكشف حقيقة الصورة تكمن في العثور على مصدرها الأصليّ.
الى ذلك، ستعمل العديد من أدوات توليد الصور بالذكاء الاصطناعي على تعتيم الخلفية بالكامل، وهو ما يضمن عدم ظهور أي تفاصيل غريبة بسهولة.
ونتيجةً لذلك، تكون الخلفية الضبابية بالكامل مثيرة للشكوك حول طبيعة الصورة، ويمكن أن نعتبرها من العلامات. لكن إن كانت الخلفية واضحة، يجب أن تنظر فيها بعمق أكثر، فمن المحتمل جدا أن تكون خلفية صورة الذكاء الاصطناعي مشوهة.
والعلامة الأشهر في صور الذكاء الاصطناعي هي الأيدي الغريبة، فقد تتضمن صورة الشخص إصبعا سادسا، أو بدون إصبع الإبهام، أو تضيف مفصلا إضافيا، أو قد تختلط بعض الأصابع معا. وبالطبع، تطورت النماذج الآن وأصبحت تلك العلامة أقل وضوحا من السابق، لكن من الممكن ملاحظتها في الصور التي تجمع أكثر من شخص.
وفي أي صورة فيها مشهد جماعي، انتبه إلى الأشخاص الموجودين في الخلفية: من المحتمل أن يكون هناك عدد زائد من الأرجل، أو بعض الأيدي غريبة الشكل، أو ذراع معلقة حول كتف بلا جسد.
كما يمثل الشعر أيضا مشكلة بالنسبة لنماذج الذكاء الاصطناعي، قد تكتشف الصورة من مظهر وتصميم الشعر. ويتكون شعر الإنسان من خصلات تنساب من الرأس إلى أسفل، أما خصلات الشعر التي ينتجها الذكاء الاصطناعي في الصور فغالبا ما تكون بدايتها ونهايتها أقل وضوحا، وقد تبدو مرسومة عند ملاحظتها عن قرب.
في عالم تنتشر فيه أدوات الذكاء الاصطناعي بكثرة، وغالبا ما تظهر هذه الصور بدون أي تعريف يوضح أنها صور أنتجتها تلك النماذج، فما علينا الا التحقق من صحتها وعدم تصديقها فورا عند المشاهدة. المصدر: خاص "لبنان 24"
المصدر: لبنان ٢٤
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
مخاطر الذكاء الاصطناعي على التعليم والبحث العلمي
يحظى موضوع الذكاء الاصطناعي باهتمام واسع عبر العالم في المناقشات والمنتديات والمجادلات حول الموضوع. ولقد سبق أن تناولت هذا الموضوع في مقالين بهذه الجريدة الرصينة: أحدهما عن الذكاء الاصطناعي والإبداع، والآخر عن الذكاء الاصطناعي والترجمة. ولكن هذا الموضوع يحتمل المزيد من التأملات دائمًا، إذ إن له أبعادًا كثيرةً لا حصر لها؛ ولذلك فإنني أريد في هذا المقال التنويه إلى تأثير الذكاء الاصطناعي على العملية التعليمية والبحث العلمي.
وقد يبدو أن استخدام كلمة «تأثير» أفضل من استخدام كلمة «مخاطر» الواردة في عنوان هذا المقال؛ لأن هذه الكلمة الأخيرة قد لا تبدو محايدة، وإنما تنطوي على حكم مسبق يتخذ موقفًا متحيزًا ضد تقنيات الذكاء الاصطناعي. وهذا تفسير غير صحيح؛ لأن كلمة «مخاطر» تعني أن هناك طريقًا نسير عليه -أو ينبغي أن نسير فيه- ولكنه يكون محفوفًا بالمخاطر التي ينبغي أن ندركها لكي يمكن اجتنابها. فلا مراء في أن الذكاء الاصطناعي يمثل ثورة كبرى في المعرفة البشرية.
هذه الثورة المعرفية تتمثل في القدرة الهائلة للآلة على توفير بيانات ضخمة في أي مجال معرفي، بل يمكن لبرامج هذه الآلة أن تؤلف نصوصًا أو موضوعات بحثية أو تصمم ابتكارات ومخترعات باستخدام هذه البيانات.
ولقد أثمرت هذه الثورة المعرفية بوجه خاص في مجال تطبيقات العلوم الدقيقة، وعلى رأسها الرياضيات البحتة التي تمتد جذورها في النهاية في المنطق الرياضي، كما لاحظ ذلك برتراند رسل بشكل مدهش في مرحلة مبكرة للغاية في كتابه أصول الرياضيات!
ولا شك أيضًا في أن الذكاء الاصطناعي له استخدامات مثمرة في مجال العملية التعليمية، إذ إنه يسهِّل على المعلم والطالب معًا بلوغ المعلومات المهمة والحديثة في مجال الدراسة، ويقدِّم المعلومات للطلبة بطريقة شيقة ويشجعهم على البحث والاستكشاف بأنفسهم.
وهنا على وجه التحديد مكمن المشكلة، فعندما نقول: «إن الذكاء الاصطناعي يشجع الطلبة على البحث والاستكشاف بأنفسهم»، فإننا ينبغي أن نأخذ هذه العبارة بمعناها الدقيق، وهو أن الذكاء الاصطناعي هو ذكاء الآلة، والآلة دائمًا هي أداة للاستخدام، وبالتالي فإنها لا يمكن أن تكون بديلًا لدور المستخدِم الذي يجب أن يقوم بنفسه بالبحث والاستكشاف. وهذا يعني أن سوء استخدام الذكاء الاصطناعي والتعويل عليه في عملية التعلم، سيؤدي إلى القضاء على روح المبادرة والاكتشاف، وسيحول دون تعلم مهارات التفكير الناقد critical thinking وتنميتها من خلال عملية التفاعل المباشر بين الطلبة والمعلم. وتلك كلها مخاطر حقيقية على التعليم.
ولا تقل عن ذلك مخاطر الذكاء الاصطناعي في البحث العلمي الذي يصبح تكريسًا لسوء استخدام هذا الذكاء في مراحل التعليم المختلفة. بل إن المخاطر هنا تصبح أشد وأكثر ضررًا؛ لأنها تتعلق بتكوين باحثين وأساتذة يُرَاد لهم أو يُرجى منهم أن يكونوا علماء حقيقيين في مجالاتهم البحثية المتنوعة. ولعل أشد هذه المخاطر هو شيوع السرقات العلمية من خلال برامج الذكاء الاصطناعي التي تقوم بعملية التأليف من خلال كتابات ودراسات وبحوث منشورة؛ وهو ما قد يشجع الباحث على استخدام المادة المُقدّمة له باعتبارها من تأليفه ودون ذكر للمصادر الأصلية التي استُمدت منها هذه المادة.
حقًّا أن الذكاء الاصطناعي نفسه قد ابتكر برامج لاكتشاف السرقات العلمية (لعل أشهرها برنامج Turnitin)؛ ولكن هذا لا يمنع الباحثين الذين يفتقرون إلى أخلاقيات البحث العلمي من التحايل على مثل هذه البرامج من خلال التمويه، وذلك بتطعيم البحث بمادة موثقة من مصادرها، بحيث يبدو البحث مقبولًا في الحد الأدنى من نسبة الاقتباسات المشروعة! وهذا أمر لا ينتمي إلى البحث العلمي ولا إلى الإبداع والابتكار.
وبصرف النظر عن مسألة السرقات العلمية، فإن الاعتماد على الذكاء الاصطناعي في البحث العلمي له مخاطر أخرى تتمثل في أن المادة المقتبَسة كثيرًا ما تكون مشوهة أو غير دقيقة، وهذا يتبدى -على سبيل المثال- في حالة النصوص المقتبسة المترجَمة التي تقع في أخطاء فادحة وتقدم نصًا مشوهًا لا يفهم مقاصد المؤلف الأصلي، وهذا ما فصلت القول فيه في مقال سابق. وفضلًا عن ذلك، فإن برامج الذكاء الاصطناعي لا تخلو من التحيز (بما في ذلك التحيز السياسي)؛ ببساطة لأنها مبرمَجة من خلال البشر الذين لا يخلون من التحيز في معتقداتهم، وهذا ما يُعرف باسم «الخوارزميات المتحيزة» biased algorithms.
ما يُستفاد من هذا كله هو أن الذكاء الاصطناعي ينبغي الاستعانة به في إطار الوعي بمخاطره؛ ومن ثم بما ينبغي اجتنابه، ولعل هذا ما يمكن تسميته «بأخلاقيات الذكاء الاصطناعي»، وهي أخلاقيات ينبغي أن تَحكم برامج هذا الذكاء مثلما تَحكم المستخدم نفسه.