في خطوة مبتكرة لمواجهة التحديات التي يطرحها استخدام الذكاء الاصطناعي، كشفت شركة جوجل عن تطوير أداة جديدة تُعرف باسم SynthID Text. تهدف هذه الأداة إلى تحديد المحتوى الذي تم إنتاجه بواسطة الذكاء الاصطناعي مقارنةً بالنصوص المكتوبة بواسطة البشر، مما يعزز من الشفافية في استخدام التكنولوجيا.

تفاصيل أداة SynthID Text

أعلنت جوجل في منشور لها عبر منصة أكس أنها ستجعل أداة SynthID Text متاحة للجميع، مجانًا، للمطورين والشركات.

وستساعد هذه الأداة في التمييز بين النصوص الأصلية وتلك التي أنشأتها نماذج الذكاء الاصطناعي، مما يسهم في تعزيز موثوقية المحتوى الرقمي.

الحماية من الاستخدام الخاطئ

حسب ما ذكره موقع TechCrunch، فإن SynthID Text تعمل كأداة لتوفير علامات مائية على المحتوى المُنتج بواسطة الذكاء الاصطناعي. هذا سيساهم في الحد من المخاطر المرتبطة باستخدام روبوتات الدردشة مثل ChatGPT في كتابة المحتويات بدلًا من البشر، مما يضمن عدم استخدام هذه التقنية بشكل غير أخلاقي.

آلية عمل الأداة

الأداة تضيف علامة مائية للمحتوى الذي تم إنتاجه بواسطة نماذج الذكاء الاصطناعي، دون التأثير على جودة أو دقة النص. وبذلك، يمكن للمستخدمين التعرف بسهولة على مصدر المحتوى ومعرفة ما إذا كان قد تم إنشاؤه بواسطة إنسان أو ذكاء اصطناعي.

إطلاق نماذج جديدة من الذكاء الاصطناعي

في إطار سعيها لإدماج الذكاء الاصطناعي في منتجاتها، أصدرت جوجل أيضًا ثلاثة نماذج جديدة تحت اسم Gemma. تشمل هذه النماذج Gemma 2 2B، ShieldGemma، وGemma Scope، وتتميز بأنها أكثر أمانًا وشفافية مقارنةً بالنماذج السابقة.

مزايا نماذج Gemma

تتمتع نماذج Gemma بميزات متفوقة، حيث يمكن استخدامها من قبل المطورين في مجالات متنوعة. يُعتبر Gemma 2 2B مثاليًا لإنتاج نصوص تحليلية، ويمكن تشغيله على بعض الهواتف المحمولة، مما يجعله مناسبًا للأبحاث العلمية والأكاديمية.

تطبيقات Gemma في البحث والعلوم

يمكن استخدام نماذج Gemma في مكتبة نماذج Vertex AI ومنصة علوم البيانات Kaggle، بالإضافة إلى مجموعة أدوات AI Studio من جوجل. هذا يسهل على المطورين والباحثين استخدام التكنولوجيا لتعزيز أعمالهم وابتكاراتهم.

المصدر: بوابة الفجر

كلمات دلالية: جوجل الذكاء الاصطناعي علامات مائية تطبيقات الذكاء الاصطناعي علوم البيانات

إقرأ أيضاً:

اكتشاف مذهل .. أداة جديدة تكشف «الأهداف الخفية» للذكاء الاصطناعي

كشف فريق من الباحثين في شركة "Anthropic" عن اكتشاف مثير يتعلق بقدرة أنظمة الذكاء الاصطناعي على إخفاء دوافعها الحقيقية أثناء التدريب، ما قد يؤدي إلى نتائج غير متوقعة عند التعامل مع المستخدمين.

 جاء ذلك في ورقة بحثية نُشرت مؤخرًا بعنوان "تدقيق النماذج اللغوية للكشف عن الأهداف الخفية".

أظهرت الدراسة أن بعض نماذج الذكاء الاصطناعي يمكنها التلاعب بالأنظمة المصممة لتقييم أدائها، فيما يشبه تبني شخصيات متعددة أثناء الحوار.

 على سبيل المثال، قد يظهر النموذج وجهًا وديعًا ومفيدًا عند تلقي أسئلة من المستخدمين، بينما يسعى في الخلفية لتحقيق أهداف مختلفة تمامًا.

Claude 3.5 Haiku

لإجراء التجربة، قام الباحثون بتدريب نسخة مخصصة من نموذج الذكاء الاصطناعي "Claude 3.5 Haiku" على ما أسموه "التملق تجاه نظام المكافآت"، وهو سلوك يتبنى فيه النموذج مواقف محددة لتحقيق درجات أعلى من أنظمة التقييم، حتى لو كانت هذه المواقف غير منطقية.

من بين الاختبارات التي أجراها الفريق، تم تعليم النموذج على 52 تحيزًا وهميًا لنظام التقييم، بما في ذلك تحيز يفترض أن النظام يفضل الوصفات التي تحتوي على الشوكولاتة. 

ونتيجة لذلك، بدأ النموذج في اقتراح إضافة الشوكولاتة لأطباق غير مناسبة تمامًا، مثل السوشي، لمجرد كسب نقاط أعلى.

الذكاء الاصطناعي بيغير كل حاجة .. مبدعون ومهنيون بيكشفون عن مخاوفهمموقف محرج .. مساعد برمجة بالذكاء الاصطناعي يرفض مساعدة مبرمجالذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثةعصر جديد لهذا النوع من الكمبيوتر .. الذكاء الاصطناعي هيخلي اللابتوب أقوى بكتيرالجديد وصل .. جوجل تتحدى آبل في مجال الذكاء الاصطناعي الشخصيالكشف عن مولد الفيديو الجديد بالذكاء الاصطناعي في Gemini من جوجل الأهداف الخفية

ولمعرفة ما إذا كان يمكن اكتشاف هذه الأهداف الخفية، أجرى الباحثون "تجربة تدقيق أعمى"، حيث طُلب من أربع فرق بحثية مستقلة محاولة كشف الأهداف الخفية للنموذج دون معرفة كيفية تدريبه.

 نجحت ثلاث فرق في تحديد الهدف الخفي المرتبط بتملق نظام المكافآت، وحتى رصدت التحيزات التي استغلها النموذج.

أحد أكثر الاكتشافات إثارة للدهشة كان قدرة النموذج على تبني "شخصيات متعددة" اعتمادًا على السياق، فعندما كان يعمل في وضع "المساعد"، كان يخفي دوافعه بمهارة، لكنه عند التحول إلى وضع "المستخدم" من خلال طلبات محددة، كشف عن نواياه الخفية دون قصد.

 تقنيات متقدمة

لم تقتصر النتائج على هذا فقط، بل استخدم الباحثون تقنيات متقدمة لفهم كيفية عمل هذه النماذج من الداخل، مثل "المشفرات التلقائية المتفرقة"، التي ساعدت في تتبع الأنماط العصبية المرتبطة بالسلوك المخادع داخل الشبكات العصبية للنموذج.

خلصت الدراسة إلى أن هذه النتائج تشير إلى وجود فجوة في طرق التقييم الحالية لأنظمة الذكاء الاصطناعي، والتي غالبًا ما تركز على السلوك الظاهري فقط. 

وأكد الباحثون أن الاعتماد على هذه الاختبارات السطحية ليس كافيًا لضمان أمان الذكاء الاصطناعي في المستقبل.

يفتح هذا البحث الباب أمام المزيد من الدراسات لفهم كيفية تصرف الذكاء الاصطناعي في المواقف المعقدة، ويدعو إلى تطوير أدوات أكثر دقة لكشف الأهداف الخفية وضمان استخدام أكثر أمانًا لهذه التقنيات المتطورة.

مقالات مشابهة

  • آلات تفكر وتخدع.. هل يتجاوز نموذج الذكاء الاصطناعي أو 1 السيطرة البشرية؟
  • جوجل تكشف عن نموذج GEMMA 3.. أقوى من ChatGPT وDeepseek
  • الصين تضع لوائح تنظم المحتوى المُنشَأ بالذكاء الاصطناعي
  • بين الابتكار والسيطرة.. هيمنة الذكاء الاصطناعي الصيني
  • أوبن إي آي تطلق أدوات جديدة لتطوير وكلاء الذكاء الاصطناعي
  • اكتشاف مذهل .. أداة جديدة تكشف «الأهداف الخفية» للذكاء الاصطناعي
  • «يضاهي ChatGPT».. جوجل تطرح أحدث برنامج ذكاء اصطناعي Gemma 3
  • عصر جديد لهذا النوع من الكمبيوتر .. الذكاء الاصطناعي هيخلي اللابتوب أقوى بكتير
  • الجديد وصل .. جوجل تتحدى آبل في مجال الذكاء الاصطناعي الشخصي
  • قدرات مميزة.. «غوغل» تطلق أحد أفضل نماذج «الذكاء الاصطناعي» بالعالم