ChatGPT يضع علامات رقمية على صور DALL-E 3 للمساعدة في مكافحة المعلومات الخاطئة
تاريخ النشر: 8th, February 2024 GMT
في العصر الذي يستخدم فيه المحتالون الذكاء الاصطناعي التوليدي للاحتيال على الأموال أو تشويه سمعة الأشخاص، تبتكر شركات التكنولوجيا طرقًا لمساعدة المستخدمين على التحقق من المحتوى - على الأقل الصور الثابتة، للبدء بها. كما تم الإعلان عنه في استراتيجية المعلومات الخاطئة لعام 2024، تقوم OpenAI الآن بتضمين بيانات تعريف المصدر في الصور التي تم إنشاؤها باستخدام ChatGPT على الويب وDALL-E 3 API، مع حصول نظيراتها المحمولة على نفس الترقية بحلول 12 فبراير.
تتبع البيانات التعريفية المعيار المفتوح C2PA (تحالف مصدر المحتوى والأصالة)، وعندما يتم تحميل إحدى هذه الصور إلى أداة التحقق من بيانات اعتماد المحتوى، ستتمكن من تتبع نسب مصدرها. على سبيل المثال، ستعرض الصورة التي تم إنشاؤها باستخدام ChatGPT بيان بيانات التعريف الأولي الذي يشير إلى أصل DALL-E 3 API الخاص بها، متبوعًا ببيان بيانات التعريف الثاني الذي يوضح ظهورها في ChatGPT.
على الرغم من تقنية التشفير الرائعة وراء معيار C2PA، فإن طريقة التحقق هذه لا تعمل إلا عندما تكون البيانات الوصفية سليمة؛ لن تكون الأداة ذات فائدة إذا قمت بتحميل صورة تم إنشاؤها بواسطة الذكاء الاصطناعي بدون بيانات وصفية - كما هو الحال مع أي لقطة شاشة أو صورة تم تحميلها على وسائل التواصل الاجتماعي. ومن غير المستغرب أن عينات الصور الحالية الموجودة على صفحة DALL-E 3 الرسمية عادت فارغة أيضًا. في صفحة الأسئلة الشائعة الخاصة بها، تعترف OpenAI بأن هذه ليست حلاً سحريًا لمعالجة حرب المعلومات الخاطئة، ولكنها تعتقد أن المفتاح هو تشجيع المستخدمين على البحث بنشاط عن مثل هذه الإشارات.
في حين أن أحدث جهود OpenAI لإحباط المحتوى المزيف تقتصر حاليًا على الصور الثابتة، فإن DeepMind من Google لديه بالفعل SynthID لوضع العلامات المائية رقميًا على كل من الصور والصوت الناتج عن الذكاء الاصطناعي. وفي الوقت نفسه، تقوم Meta باختبار العلامات المائية غير المرئية عبر مولد الصور AI الخاص بها، والذي قد يكون أقل عرضة للتلاعب.
المصدر: بوابة الوفد
إقرأ أيضاً:
الفاتيكان يدعو لمراقبة الذكاء الاصطناعي ويحذر من ظلاله الشريرة
دعا الفاتيكان، اليوم الثلاثاء، الحكومات إلى متابعة تطورات الذكاء الاصطناعي عن كثب، محذرا من المخاطر الأخلاقية التي قد تنجم عن استخدام هذه التكنولوجيا، خاصة فيما يتعلق بنشر المعلومات المضللة.
وأصدرت دائرتان في الفاتيكان وثيقة جديدة، بموافقة البابا فرانشيسكو، تحذران فيها من أن الذكاء الاصطناعي قد يشكل تهديدا للمجتمع عن طريق نشر المعلومات الخاطئة التي تقوض التماسك الاجتماعي.
وأوضحت الوثيقة أن هذه القضية تستدعي تنظيما دقيقا، إذ إن المعلومات المضللة الناتجة عن الذكاء الاصطناعي قد تنتشر بشكل غير مقصود، مما يؤدي إلى تأجيج الانقسامات السياسية وخلق اضطرابات اجتماعية.
وركزت الوثيقة الجديدة، التي حملت عنوان "القديم والجديد"، على تأثير الذكاء الاصطناعي في مجالات متعددة، مثل سوق العمل والرعاية الصحية والتعليم. وأكدت أن تقييم هذه التكنولوجيا يحتاج إلى تحليل أخلاقي شامل يأخذ في الاعتبار كيفية توجيهها واستخدامها.
وحذرت الوثيقة من أن "ظل الشر" يلوح في كل مجال تستخدم فيه هذه التكنولوجيا لاتخاذ قرارات بشرية، مشددة على ضرورة مراقبة استخدامها للتأكد من أنها تخدم الإنسانية ولا تقوضها.
مواقف الباباسلط البابا فرانشيسكو الضوء السنوات الأخيرة على القضايا الأخلاقية المتعلقة بالذكاء الاصطناعي، معربا عن قلقه بشأن تأثير هذه التكنولوجيا على الإنسانية.
إعلانوخلال رسالة وجهها الأسبوع الماضي إلى المنتدى الاقتصادي العالمي في دافوس، أعرب البابا عن "مخاوف بالغة" بشأن مستقبل البشرية في ظل تقدم الذكاء الاصطناعي. كذلك، تحدث خلال قمة مجموعة السبع في إيطاليا في يونيو/حزيران الماضي عن أهمية عدم السماح للخوارزميات بتحديد مصير الإنسان.
وجدد الفاتيكان دعوته للحكومات والمؤسسات الدولية لوضع أطر تنظيمية صارمة تضمن الاستخدام الأخلاقي والآمن للذكاء الاصطناعي، مع التركيز على حماية المجتمعات من الأخطار المحتملة لهذه التكنولوجيا.