أداة جوجل للتحقق من الصور تكتشف المنتجات المزيفة بالذكاء الاصطناعي
تاريخ النشر: 25th, October 2023 GMT
في شهر مايو الماضي، أعلنت جوجل أنها تعمل على ميزة تسمى "حول هذه الصورة" والتي تمنح المستخدمين بيانات تم التحقق منها فيما يتعلق بأي صورة على الإنترنت.
حسنًا، لقد تم طرحه للتو كجزء من البحث، لذلك لن تتمكن من الإفلات من تمرير صورة شخص آخر لبرجر كينج ألف 1988 على أنها صورتك الخاصة.
وإليك كيف يعمل. ما عليك سوى استخدام بحث Google، وتحديد صورة والنقر على النقاط الثلاث الموجودة في الزاوية اليمنى للوصول إلى الأداة.
سيناريو حالة الاستخدام الواضح لهذا هو التحقق مما إذا كانت الصورة المستخدمة لمرافقة حدث إخباري شرعية أم لا، أو إذا تم إخراجها من سياق شيء حدث في عام 2007 لإثارة معلومات مضللة. ولتحقيق هذه الغاية، توضح لك الأداة أيضًا كيفية استخدام المواقع الأخرى للصورة ووصفها، على غرار الطريقة التي يتعامل بها البحث بالفعل مع المعلومات الواقعية عبر مرشح "وجهات النظر" وعلامة التبويب "حول هذه النتيجة". وتقول جوجل إنه يمكنك أيضًا الوصول إلى الميزة من خلال النقر على الرابط "المزيد حول هذه الصفحة"، مع المزيد من الخيارات في المستقبل.
بالطبع، هناك شيء صغير يجتاح العالم الآن يسمى الذكاء الاصطناعي. قد يكون من الصعب تمييز الصور التي تم إنشاؤها بواسطة منصات الذكاء الاصطناعي عن المقالة الأصلية، لذا تتيح لك أداة Google أيضًا معرفة ما إذا كانت الصورة قد تم إنشاؤها بواسطة الذكاء الاصطناعي أم لا. ومع ذلك، يعتمد هذا على البيانات الوصفية التي تتضمن هذه المعلومات، لذا سيتعين على منشئي الصور الأصليين الاشتراك. تقول جوجل إن الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي ستحتوي دائمًا على البيانات الوصفية المناسبة.
هذه ليست الأداة الوحيدة التي طرحتها Google لتوفير المزيد من الفروق الدقيقة في عمليات البحث عن الصور. سيتم قريبًا توسيع Fact Check Explorer، وهو تطبيق مفيد للصحفيين، ليشمل الصور. أما بالنسبة لعمليات البحث غير المستندة إلى الصور، فقد أعلنت شركة التكنولوجيا العملاقة أيضًا عن برنامج ينشئ أوصافًا لمواقع الويب يتم إنشاؤها بواسطة الذكاء الاصطناعي، مما يساعد المستخدمين في البحث عن كيانات أقل شهرة.
المصدر: بوابة الوفد
كلمات دلالية: جوجل الذكاء الاصطناعى الصور الذکاء الاصطناعی
إقرأ أيضاً:
اتهام جوجل باستخدام مبتدئين للتحقق من صحة إجابات Gemini
لا جدال في أن الذكاء الاصطناعي لا يزال يعاني من بعض اللحظات غير الموثوقة، ولكن المرء يأمل أن تكون تقييماته دقيقة على الأقل. ومع ذلك، زُعم أن جوجل أصدرت تعليمات الأسبوع الماضي للعاملين المتعاقدين الذين يقيمون برنامج جيميني بعدم تخطي أي مطالبات، بغض النظر عن خبرتهم، وفقًا لتقارير TechCrunch استنادًا إلى الإرشادات الداخلية التي اطلعت عليها. شاركت جوجل معاينة لبرنامج جيميني 2.0 في وقت سابق من هذا الشهر.
يُقال إن جوجل أصدرت تعليمات لشركة GlobalLogic، وهي شركة خارجية يقوم المتعاقدون معها بتقييم الناتج الناتج عن الذكاء الاصطناعي، بعدم جعل المراجعين يتخطىون المطالبات خارج نطاق خبرتهم. في السابق، كان بإمكان المتعاقدين اختيار تخطي أي مطالبة تقع بعيدًا عن خبرتهم - مثل سؤال طبيب عن القوانين. كانت الإرشادات تنص على "إذا لم تكن لديك خبرة حاسمة (مثل الترميز والرياضيات) لتقييم هذه المطالبة، فيرجى تخطي هذه المهمة".
الآن، يُقال إن المتعاقدين تلقوا تعليمات مفادها "لا ينبغي لك تخطي المطالبات التي تتطلب معرفة متخصصة بالمجال" وأن عليهم "تقييم أجزاء المطالبات التي تفهمها" مع إضافة ملاحظة تفيد بأنها ليست مجالاً لديهم معرفة فيه. من الواضح أن الأوقات الوحيدة التي يمكن فيها للعقود تخطيها الآن هي إذا كانت هناك كمية كبيرة من المعلومات مفقودة أو إذا كانت تحتوي على محتوى ضار يتطلب نماذج موافقة محددة للتقييم.
استجاب أحد المتعاقدين بشكل مناسب للتغييرات قائلاً، "اعتقدت أن الهدف من التخطي هو زيادة الدقة من خلال منحها لشخص أفضل؟"
بعد وقت قصير من نشر هذه المقالة لأول مرة، قدمت Google لـ Engadget البيان التالي: "يقوم المصنفون بأداء مجموعة واسعة من المهام عبر العديد من منتجات ومنصات Google المختلفة. إنهم يقدمون ملاحظات قيمة حول أكثر من مجرد محتوى الإجابات، ولكن أيضًا حول الأسلوب والتنسيق وعوامل أخرى. لا تؤثر التقييمات التي يقدمونها بشكل مباشر على خوارزمياتنا، ولكن عند أخذها في المجموع، فهي نقطة بيانات مفيدة لمساعدتنا في قياس مدى جودة عمل أنظمتنا."
كما أشار متحدث باسم Google إلى أن اللغة الجديدة لا ينبغي بالضرورة أن تؤدي إلى تغييرات في دقة Gemini، لأنهم يطلبون من المصنفين تقييم أجزاء المطالبات التي يفهمونها على وجه التحديد. يمكن أن يوفر هذا ملاحظات حول أشياء مثل مشكلات التنسيق حتى لو لم يكن لدى المصنف خبرة محددة في الموضوع. كما أشارت الشركة إلى إصدار هذا الأسبوع لمعيار FACTS Grounding الذي يمكنه التحقق من استجابات LLM للتأكد من "أنها ليست دقيقة من الناحية الواقعية فقط فيما يتعلق بالمدخلات المقدمة، ولكنها أيضًا مفصلة بما يكفي لتقديم إجابات مرضية لاستفسارات المستخدم".