ميتا تضع علامة على الإعلانات السياسية والاجتماعية المعدلة بالذكاء الاصطناعي
تاريخ النشر: 9th, November 2023 GMT
ستطلب Meta من المعلنين الكشف عما إذا كانت الإعلانات التي يرسلونها لمواقعها الإلكترونية قد تم تعديلها رقميًا، بما في ذلك من خلال استخدام أدوات الذكاء الاصطناعي، إذا كانت ذات طبيعة سياسية أو اجتماعية. سيتم وضع علامة على الإعلانات التي تم تعديلها رقميًا على منصات Meta، بنفس الطريقة التي تأتي بها بعض الإعلانات مع إخلاء المسؤولية "مدفوع مقابل".
في منشور بالمدونة، أوضح ميتا أنه يتعين على المعلنين الكشف في تدفق الإعلانات إذا أرسلوا قضية اجتماعية أو إعلانًا انتخابيًا أو سياسيًا يحتوي على صور أو مقاطع فيديو واقعية - أو إعلان بصوت واقعي - تم تعديله لجعل شخص حقيقي يقول أو افعل شيئًا لم يقولوه أو يفعلونه في الواقع. يُطلب منهم أيضًا إخبار Meta عما إذا كانوا يرسلون إعلانًا مع شخص يبدو واقعيًا غير موجود، أو حدثًا يبدو واقعيًا لم يحدث، أو لقطات معدلة لحدث حقيقي وقع بالفعل. إذا أرسلوا صورة أو مقطع فيديو أو تسجيلًا صوتيًا مزيفًا لحدث يُزعم أنه وقع - على سبيل المثال، شيء قاموا بإنشائه بمساعدة مولدات الصور التي تعمل بالذكاء الاصطناعي - فيجب عليهم إخطار Meta أيضًا. لا يحتاج المعلنون إلى الكشف عما إذا كانوا قد قاموا فقط بتعديل حجم إعلاناتهم واقتصاصها وتصحيح الألوان وزيادة وضوحها.
وحذرت شركة Meta، التي تتوقع بالفعل أن يخالف بعض المعلنين القاعدة الجديدة، من أنها سترفض الإعلانات إذا قررت أنها فشلت في ذلك أو لم تكشف عمدًا عن أنها غيرت عروضها رقميًا. علاوة على ذلك، قالت إن المخالفات المتكررة للقاعدة "قد تؤدي إلى عقوبات". ولم توضح بعد تفاصيل عملية الترخيص التي يتعين على المعلنين اتباعها والضمانات المعمول بها لمنعهم من التلاعب بالنظام، لكنها وعدت بمشاركة المزيد من التفاصيل في المستقبل.
لقد أثار السياسيون والمؤيدون من كلا الجانبين بالفعل مخاوف بشأن إمكانية استخدام الذكاء الاصطناعي لدفع المعلومات الخاطئة عن الانتخابات إلى آفاق جديدة في موسم الحملة هذا. يوجد بالفعل مقطع فيديو تم تعديله للرئيس جو بايدن ليظهر كما لو كان يلمس حفيدته بشكل غير لائق ويتم تداوله على فيسبوك. فتح مجلس الرقابة في Meta قضية بعد أن استأنف المستخدمون إزالة الفيديو، ومن المتوقع أن يصدر قرارًا في المستقبل القريب.
المصدر: بوابة الوفد
إقرأ أيضاً:
راغب علامة آخرهم..نجوم وقعوا ضحايا الذكاء الاصطناعي
أثار تسجيل "مفبرك" منسوب إلى اللبناني راغب علامة والفنان الإماراتي عبدالله بالخير، الجدل على منصات التواصل الاجتماعين بسبب ما قيل إنه مساس بحسن نصرالله.
وسارع علامة وبالخير لنفي ما ورد في التسجيل، مؤكدين تزييف صوتهما عبر وسائل تقنية إلا أن النفي وحده لم يكن كافياً مقابل حملة شرسة شنها أنصار حزب الله ضد النجم اللبناني، مع توجيه تهديده إذا سافر إلى بيروت، ولم يقتصر الأمر عند هذا الحد، بل امتد لتحطيم وتكسير وحرق مدرسة لعلامة في لبنان.تُسلط هذه الواقعة الضوء على "تزييف" أصوات وصور الفنانين والمشاهير واستخدامها في الاحتيال أو شحن الرأي العام في اتجاهات سياسية أو دينية.
في هذا السياق، لم يكن علامة وبالخير، أول فريسة هذه الطرق الاحتيالية، فقد تعرض كثيرون لذلك وهو ما يرصده 24.
نشر توم هانكس، عبر إنستغرام، صورة مزيفة مأخوذة من فيديو بواسطة الذكاء الاصطناعي، يُستخدم في إعلان خادع للترويج لعلاج الأسنان، لافتاً إلى تزييف شكله وتوظيفه دون موافقته.
A post shared by Tom Hanks (@tomhanks)
تايلور سويفتوفي يناير (كانون الثاني) الماضي، انتشرت صور إباحية مزيفة للمغنية تايلور سويفت عبر الإنترنت، ومنصات التواصل الاجتماعي على نطاق واسع.
وأثارت الواقعة الجدل، ما دفع مُحبي سويفت، إلى شن هجوم كبير على إكس، لسماحها بانتشار الصور دون التصدي لها، حيث اطلقوا وسماً حمل اسم "#ProtectTaylorSwift"، للدفاع عنها.
بدورها، أصدرت نقابة ممثلي الشاشة، وفق موقع "Cbs news"، بيانا عن القضية، وصفت في صور سويفت بـ "مزعجة ومضرة ومثيرة للقلق العميق".
سكارليت جوهانسونواجهت الممثلة والمغنية الأمريكية سكارليت جوهانسون، تحديات التزييف العميق بعد توظيف وجهها في أفلام مُخالفة.
ورغم العقبات القانونية والاعتداءات، أعربت الممثلة عن صعوبة اتخاذ إجراءات ضد هذه الفيديوهات التي تصنع بالذكاء الاصطناعي.
ضحايا آخرينواجه مشاهير ونجوم آخرين أمثال، الهندية راشميكا ماندانا، والبريطانية كاترينا كايف، وروبرت باتينسون، ومورغان فريمان، وجيمي دونالدسون، وكريستين بيل، نفس المشكلة مع التزييف العميق وتقنيات الذكاء الاصطناعي.
وحسب نتائج دراسة نشرتها "الغارديان" البريطانية في 21 مارس (آذار) الماضي، وقع 250 من المشاهير والنجوم ضحايا للمواد الإباحية المزيفة، حيث أظهر تحليل للقناة الرابعة لأكثر خمسة مواقع ويب مزيفة زيارة، أن هناك ما يقرب من 4000 شخصية مشهورة مدرجة في القائمة، بينهم 255 بريطانيا.