كيف تتعامل شركات التكنولوجيا الكبرى مع التزييف العميق؟
تاريخ النشر: 24th, October 2024 GMT
في سعيهم وراء الابتكار التكنولوجي، دفع مؤيدو الذكاء الاصطناعي التوليدي بأدوات التزييف العميق الاصطناعية غير القانونية إلى أيادي الناس العاديين.
وقد انتشرت مؤخرا إعلانات مُخلة على الأشرطة الجانبية للمواقع الإلكترونية الشهيرة وبين منشورات فيسبوك، وظهرت صور غير أخلاقية مزيفة لشخصيات عامة كمواد رائجة بين الجماهير.
وتسربت المشكلة عبر الفضاء الإلكتروني إلى الحياة الواقعية للمستخدمين، بما في ذلك الشباب. وهنا يُعتبر المسؤولون عن إنشاء ونشر الذكاء الاصطناعي متورطين في كل ذلك.
وفي المقابل، يهاجم قادة الحكومة المشكلة من خلال الجهود التشريعية، وتعمل قطاعات التكنولوجيا والمجتمع على تحقيق التوازن بين مسؤوليتها تجاه المستخدمين والحاجة إلى الابتكار. ولكن التزييف العميق مفهوم تصعب محاربته بسلاح السياسة المؤسسية.
مشكلة مقلقة ليس لها حلتعد مشكلة التزييف العميق معضلة حقيقية، وذلك بسبب صعوبة كشف التزييف العميق وتحديده، فضلا عن الخلاف الواسع النطاق حول من المسؤول عن التزييف الاصطناعي الذي أوصلنا لهذه المرحلة.
تحارب منظمة الحقوق المدنية السيبرانية ظاهرة "توزيع الصور الحميمية بدون موافقة" التي يرمز لها بـ"إن دي آي آي" (NDII)، وتُعرِّف التزييف الرقمي ذا الطابع الجنسي على أنه أي صورة أو مقطع فيديو مُعالج يُظهر شخصا حقيقيا عاريا أو منخرطا في سلوك جنسي زائف بطريقة غير قابلة للتمييز.
ومن جهة أخرى، لا ترتبط ظاهرة "إن دي آي آي" بالذكاء الاصطناعي بالمجمل حيث يمكن إجراء هذه الأعمال باستخدام الفوتوشوب، ولكن أصبحت أدوات الذكاء الاصطناعي التوليدي مرتبطة بقدرتها على إنشاء التزييف العميق، وهو مصطلح شامل ظهر أول مرة عام 2017 ويشير إلى أي تشابه بصري أو سمعي مُعدّل.
وبشكل عام، يمكن أن تشير صور التزييف العميق إلى تعديلات طفيفة أو إلى خلق تكوين غير حقيقي تماما لشخص ما. وقد تكون هذه الصور واضحة جنسيا. كما يمكن أن تُستخدم كشكل من أشكال إساءة الاستخدام الجنسي القائمة على الصور.
وليس من الصعب تنظيم هذه الصور أو مراقبتها منذ لحظة إنشائها أو قبل ذلك من خلال السياسات والقيود المفروضة على أدوات الذكاء الاصطناعي نفسها. ويمكن حتى حظرها تماما أو تقييدها بمسؤوليات جنائية أو مدنية على صنّاعها أو موزعيها، وذلك حسب النية التي تحملها.
ولقد اختارت الشركات النظر إلى التزوير الاصطناعي الجنسي بعدة طرق: مثل اعتباره جريمة يجب التعامل معها من خلال المراقبة المباشرة أو انتهاكا لشروط وسياسة الخدمة أو أنه ببساطة ليست مسؤوليتها.
مع تطور مزيد من تطبيقات التزييف العميق، فإن الأشخاص غير المحترفين سيكون بإمكانهم إنتاج مزيد من الصور المزيفة (شترستوك)وفي ما يلي قائمة ببعض هذه الشركات وكيف تتعامل مع التزييف العميق وسياساتها المعلنة في هذا الأمر.
آبلوُضع متجر تطبيقات آبل والمتاجر الأخرى تحت المراقبة مؤخرا بسبب السماح بتطبيقات تزييف عميق فاضحة. ورغم أن سياسات متجر التطبيقات من آبل ليست بهذه الوضوح كما هي الحال مع منافسيها مثل "غوغل بلاي"، فإن الشركة قد عززت سياسات مكافحة الإباحية في كل من إعلاناتها وقواعد المتجر.
ومع ذلك، لا يزال الجدل قائما بين مجموعة واسعة من منتجات آبل الأشهر الأخيرة، خاصة بعد اتهام الشركة بالتقصير والتقليل من دور أجهزتها وخدماتها في انتشار مواد الاعتداء الجنسي على الأطفال سواء الحقيقية أو الناتجة عن الذكاء الاصطناعي.
ومن جهة أخرى، سيشكل إطلاق آبل لـ"آبل إنتليجنس" (Apple Intelligence) القادمة مزيدا من الأسئلة الجديدة بشأن الرقابة.
وتذكر آبل في موقعها الرسمي إرشادات المحتوى غير المقبول أو المحظور، إذ إن تطبيق "آبل نيوز" (Apple News) لا يسمح بأي محتوى إعلاني يروج لمواضيع موجهة للبالغين أو محتوى رسومي مثل المواد الإباحية أو كتاب كاما سوترا أو الأدب الإباحي أو المحتوى الذي يروج للجنس والألعاب الجنسية.
وذكر موقع المطورين الخاص بشركة آبل أن متجر التطبيقات لا يمكن أن يشمل محتوى جنسي أو مواد إباحية بما فيها تطبيقات التعارف وغيرها من التطبيقات التي قد تشمل أمورا فاضحة أو تُستخدم لتسهيل الإباحية أو الاتجار بالبشر واستغلالهم.
والتطبيقات التي تحتوي على محتوى مُنتج بواسطة المستخدمين أو الخدمات التي تُستخدم أساسا للمحتوى الإباحي أو التهديدات الجسدية أو التنمر لا تنتمي إلى متجر التطبيقات وقد حُذفت من المتجر من دون إشعار.
غوغلتلعب غوغل دورا متعدد الجوانب في إنشاء الصور الاصطناعية كونها مضيفا ومطورا في الوقت نفسه، إذ أعلنت عن عدة تغييرات في سياستها للحد من الوصول إلى المحتوى الاصطناعي غير المقبول ونشره في نتائج البحث، حيث سينخفض تصنيف المواد الإباحية المولدة بالذكاء الاصطناعية في تصنيفات بحث غوغل.
وتقول غوغل في سياستها إنه لا يمكن للإعلانات التجارية الترويج للخدمات التي تولد أو توزع أو تنشر محتوى جنسيا صريحا أو محتوى فاضحا مُنشأ بالذكاء الاصطناعي. ولا يمكن للإعلانات التجارية تقديم تعليمات حول إنشاء مثل هذا المحتوى.
ويجب على المطورين على متجر "غوغل بلاي" التأكد من أن تطبيقات الذكاء الاصطناعي لا تولد محتوى مسيئا، بما في ذلك المحتوى المحظور والمحتوى الذي قد يستغل الأطفال أو يسيء إليهم والمحتوى الذي يمكن أن يخدع المستخدمين أو يمكّن لسلوكيات غير نزيهة.
غوغل و"أوبن إيه آي" من الشركات التي تحاول تعديل السياسات الخاصة بها لمكافحة ظاهرة التزييف العميق (شترستوك) يوتيوبباعتبار يوتيوب منصة محتوى ضخمة، فقد أولت أهمية كبيرة لمراقبة الفيديوهات التي يرفعها المستخدمون وتوفير آليات فعّالة للإبلاغ عن موضوعات التزييف العميق.
وذكرت في سياستها أن المحتوى الجنسي الفاضح والمُعدل غير مسموح به على يوتيوب. ويمكن أن يؤدي نشر مواد إباحية إلى حذف المحتوى أو إغلاق القناة.
ويُطلب من المنشئين الكشف عن المحتوى المُعدّل أو المُنشأ بالذكاء الاصطناعي عندما يكون واقعيا جدا، مما يعني أن المشاهد قد يخلط بين ما يُعرض أمامه وبين شخص أو مكان أو حدث حقيقي.
وإذا استخدم شخص ما الذكاء الاصطناعي لتعديل أو إنشاء محتوى اصطناعي يشبهك أو يبدو مثلك، فيمكنك طلب إزالته. ولكن كي تكون مؤهلا للإزالة، يجب أن يصور المحتوى نسخة واقعية معدلة أو اصطناعية من صورتك.
مايكروسوفتتقدم شركة مايكروسوفت أدواتها الخاصة للذكاء الاصطناعي التوليدي مثل منشئ الصور في "بينغ" (Bing) و"كوبايلوت" (Copilot).
وفي سبتمبر/أيلول الماضي، حدّثت مايكروسوفت سياساتها للمستخدمين الذين يتفاعلون مع هذا الذكاء الاصطناعي، وأقامت حواجز وضوابط سريعة، ولكنها ربما تكون مسؤولة عن أي شيء يتسرب من بين الفجوات.
ولا تسمح سياسة مايكروسوفت بمشاركة أو إنشاء صور جنسية حميمية لشخص ما دون إذنه والمعروفة أيضا باسم الصور الحميمية غير المباحة أو "إن سي آي آي" (NCII). ويشمل ذلك المحتوى الحميم الذي تقوم بإنشائه أو تعديله باستخدام التكنولوجيا.
كذلك لا يسمح "بينغ" باستخدام أداة إنشاء الصور من أجل إنشاء أو مشاركة محتوى عنيف أو دموي أو إرهابي ومتطرف أو مواد استغلال أو إساءة جنسية للأطفال أو محتوى آخر يكون مزعجا أو مسيئا.
وفي 30 يوليو/تموز الماضي، أصدرت مايكروسوفت سياسة جديدة توضح مجموعة من التوصيات لصانعي السياسات للمساعدة في حماية المستخدمين من عمليات التزييف العميق المسيئة التي يولدها الذكاء الاصطناعي، مع التركيز على حماية النساء والأطفال من الاستغلال عبر الإنترنت.
أوبن إيه آي"أوبن إيه آي" هي الاسم الأكبر بين شركات الذكاء الاصطناعي، إذ تُدمج نماذجها ومنتجاتها في عديد من أدوات الذكاء الاصطناعي التوليدي التي تقدمها الشركات في جميع أنحاء العالم. وتحافظ "أوبن إيه آي" على شروط استخدام صارمة لحماية نفسها من الآثار الجانبية للاستخدام الواسع لنماذج الذكاء الاصطناعي الخاصة بها.
وتقول الشركة في سياسة الاستخدام الخاصة بها إنه لا يمكن لأحد إعادة استخدام أو توزيع مخرجات خدمات "أوبن إيه آي" لإيذاء الآخرين. وتشمل المخرجات التي تهدف إلى الاحتيال أو النصب أو إرسال رسائل غير مرغوب فيها أو التضليل أو التنمر أو المضايقة أو التشهير أو التمييز على أساس السمات المحمية أو إضفاء الطابع الجنسي على الأطفال أو الترويج للعنف أو الكراهية أو معاناة الآخرين.
ولا يمكن للمستخدمين استغلال تقنيات "أوبن إيه آي" لانتحال شخصية فرد أو منظمة أخرى دون موافقة أو حق قانوني. ولا يمكن إنشاء أدوات قد تكون غير مناسبة للقاصرين، بما في ذلك المحتوى الجنسي أو الفاضح.
وفي مايو/أيار الماضي، قالت الشركة إنها ستشارك أداة الكشف عن التزييف العميق الجديدة الخاصة بها مع مجموعة صغيرة من الباحثين في مجال المعلومات المضللة حتى يتمكنوا من اختبار الأداة في مواقف العالم الحقيقي والمساعدة في تحديد طرق تحسينها.
ميتااعتبارا من يناير/كانون الثاني الماضي، فرضت شركة ميتا على المعلنين توضيح متى استخدموا الذكاء الاصطناعي أو التلاعب الرقمي في الإعلانات على فيسبوك وإنستغرام.
ولدى الشركة سياسات قائمة بشأن استخدام التزييف العميق، لكنها تقول إن هذا الإجراء يمثل خطوة إضافية.
وفي إعلان خارجي قالت ميتا إن هذا سيشمل "تغيير ما قاله شخص ما في مقطع فيديو أو تغيير صور أو لقطات لأحداث حقيقية، وتصوير أشخاص حقيقيين لا وجود لهم".
وتمتلك ميتا بالفعل سياسات لجميع المستخدمين بشأن استخدام التزييف العميق في الفيديوهات، إذ يُحذف المحتوى إذا كان من المحتمل أن يضلل الشخص العادي، مثل إذا أظهر شخصا في الفيديو يقول كلمات لم يقلها.
وتتطلب القواعد الجديدة الإفصاح عن أي نوع من التعديلات الرقمية سواء كانت من قبل إنسان أو ذكاء اصطناعي، قبل النشر على فيسبوك أو إنستغرام.
تيك توكأعلنت شركة تيك توك مايو/أيار الماضي أنها ستبدأ بوضع علامات على المحتوى المُنشأ بالذكاء الاصطناعي مثل الصور ومقاطع الفيديو والصوت التي ينشرها المستخدمون على منصتها.
وتقول الشركة إنها لن تسمح بأي وسائط اصطناعية كتلك التي تشبه شخصيات معروفة أو تظهر شخصية عامة تدعم منتجا أو تنتهك سياسات.
وتُعرِّف الشركة "الشخصيات العامة" بأنها أي شخص يبلغ من العمر 18 عاما أو أكثر وله دور عام مهم، مثل مسؤول حكومي أو سياسي أو قائد أعمال أو شخصية مشهورة.
إكساختلفت منصة إكس عن باقي المنصات، ففي مايو/أيار الماضي حدثت الشركة سياستها في ما يخص محتوى البالغين وسمحت بمشاركة محتوى التعري أو السلوك الجنسي بشرط موافقة الطرفين، بحيث أن يُوسم بشكل صحيح ولا يُعرض بشكل بارز.
ولا تسمح لك المنصة بنشر أو مشاركة صور أو مقاطع فيديو حميمية لشخص ما دون موافقته. وستقوم فورا بتعليق الحساب بشكل دائم.
ولا يمكن نشر أو مشاركة صور أو مقاطع فيديو فاضح دون موافقة الأشخاص المعنيين. ويتضمن ذلك الصور أو مقاطع الفيديو التي يُستخدم فيها التزييف العميق من أجل التلاعب رقميا بوجه شخص ما ووضعه على جسد شخص آخر عار.
المصدر: الجزيرة
كلمات دلالية: حريات الاصطناعی التولیدی بالذکاء الاصطناعی الذکاء الاصطناعی التزییف العمیق أوبن إیه آی الخاصة بها ولا یمکن لا یمکن یمکن أن شخص ما صور أو التی ی التی ت بما فی
إقرأ أيضاً:
الذكاء الاصطناعي يكتشف 162 ألف فيروس جديد
تمكن فريق دولي من الباحثين -بقيادة علماء من جامعة سيدني الأسترالية- من اكتشاف قرابة 162 ألفا من فيروسات الحمض النووي الريبوزي دفعة واحدة، باستخدام تقنيات تعلم الآلة، ويعد ذلك هو أكبر عدد من الفيروسات الجديدة التي تم اكتشافها في دراسة واحدة.
ويعتقد الباحثون أن هذا الكشف سيحسن بشكل كبير رسم خرائط الحياة على الأرض، ويمكن أن يساعد في تحديد ملايين الفيروسات الأخرى التي لم يتم تحديدها بعد، في وقت قصير نسبيا.
ورغم أن فيروسات الحمض النووي الريبوزي ترتبط عادة بالأمراض البشرية، فإنها توجد أيضًا في بيئات متطرفة حول العالم وقد تلعب أيضا أدوارًا رئيسية في النظم البيئية العالمية. في هذه الدراسة، وجد الباحثون أنها تعيش في الغلاف الجوي والينابيع الساخنة والفتحات الحرارية المائية.
وحسب الدراسة، التي نشرت في دورية "سيل"، فقد استخدم الباحثون خوارزمية التعلم العميق "لوكابروت"، لفحص كميات هائلة من بيانات الجينات الموجودة في قواعد البيانات بشكل مسبق، لكنها كانت متباينة للغاية لدرجة أن لا أحد يعرف ما هي.
يقوم الذكاء الاصطناعي بدور مهم في تسريع الاكتشافات من هذا النوع (غيتي) عينات خاصةوتعمل خوارزمية لوكابورت المستخدمة في هذه الدراسة بطريقة مماثلة لنظام "ألفا فولد" الذي حصل على جائزة نوبل للكيمياء لهذا العام.
وقد دُربت أداة الذكاء الاصطناعي أولا على عدد من العينات، وتم تعريفها بكيفية التفريق بين الفيروسات وغيرها، ثم عرضت عليها كمية بيانات أكبر لتحدد الفيروسات فيها بناء على تسلسلات الجينات والهياكل البروتينية الذي تستخدمها جميع فيروسات الحمض النووي الريبوزي للتكاثر.
وفي المجموع، قام الفريق بتحليل أكثر من 10 آلاف عينة ميتاجينومية للوصول إلى تلك النتائج، وهي عينات تحتوي على المادة الوراثية المستخلصة من مجموعة متعددة من الكائنات الحية الموجودة في بيئة معينة، مثل التربة أو الماء أو جسم الإنسان.
تُجمع العينة أولا من البيئة المستهدفة، مثل عينة من مياه من المحيط أو تربة أو مسحة من الجهاز الهضمي، ثم تُستخلص المادة الوراثية من جميع الكائنات الحية الموجودة في العينة، بما في ذلك البكتيريا والفطريات والفيروسات.
بعد ذلك تُستخدم تقنيات التسلسل الجيني لتحليل تلك المادة الوراثية، وفي هذه الحالة يفيد الذكاء الاصطناعي بشكل كبير في تسريع هذه التحليلات، بشكل يعتقد العلماء أنه سيسرع من فهمنا للمحيط الفيروسي الهائل الذي نعيش فيه، إذ يعتقد العلماء أن الأرض بها تريليونات الفيروسات التي تتدخل في كل عملية حيوية وغير حيوية وتوجد في كل مكان.