في خطوة مبتكرة لمواجهة التحديات التي يطرحها استخدام الذكاء الاصطناعي، كشفت شركة جوجل عن تطوير أداة جديدة تُعرف باسم SynthID Text. تهدف هذه الأداة إلى تحديد المحتوى الذي تم إنتاجه بواسطة الذكاء الاصطناعي مقارنةً بالنصوص المكتوبة بواسطة البشر، مما يعزز من الشفافية في استخدام التكنولوجيا.

تفاصيل أداة SynthID Text

أعلنت جوجل في منشور لها عبر منصة أكس أنها ستجعل أداة SynthID Text متاحة للجميع، مجانًا، للمطورين والشركات.

وستساعد هذه الأداة في التمييز بين النصوص الأصلية وتلك التي أنشأتها نماذج الذكاء الاصطناعي، مما يسهم في تعزيز موثوقية المحتوى الرقمي.

الحماية من الاستخدام الخاطئ

حسب ما ذكره موقع TechCrunch، فإن SynthID Text تعمل كأداة لتوفير علامات مائية على المحتوى المُنتج بواسطة الذكاء الاصطناعي. هذا سيساهم في الحد من المخاطر المرتبطة باستخدام روبوتات الدردشة مثل ChatGPT في كتابة المحتويات بدلًا من البشر، مما يضمن عدم استخدام هذه التقنية بشكل غير أخلاقي.

آلية عمل الأداة

الأداة تضيف علامة مائية للمحتوى الذي تم إنتاجه بواسطة نماذج الذكاء الاصطناعي، دون التأثير على جودة أو دقة النص. وبذلك، يمكن للمستخدمين التعرف بسهولة على مصدر المحتوى ومعرفة ما إذا كان قد تم إنشاؤه بواسطة إنسان أو ذكاء اصطناعي.

إطلاق نماذج جديدة من الذكاء الاصطناعي

في إطار سعيها لإدماج الذكاء الاصطناعي في منتجاتها، أصدرت جوجل أيضًا ثلاثة نماذج جديدة تحت اسم Gemma. تشمل هذه النماذج Gemma 2 2B، ShieldGemma، وGemma Scope، وتتميز بأنها أكثر أمانًا وشفافية مقارنةً بالنماذج السابقة.

مزايا نماذج Gemma

تتمتع نماذج Gemma بميزات متفوقة، حيث يمكن استخدامها من قبل المطورين في مجالات متنوعة. يُعتبر Gemma 2 2B مثاليًا لإنتاج نصوص تحليلية، ويمكن تشغيله على بعض الهواتف المحمولة، مما يجعله مناسبًا للأبحاث العلمية والأكاديمية.

تطبيقات Gemma في البحث والعلوم

يمكن استخدام نماذج Gemma في مكتبة نماذج Vertex AI ومنصة علوم البيانات Kaggle، بالإضافة إلى مجموعة أدوات AI Studio من جوجل. هذا يسهل على المطورين والباحثين استخدام التكنولوجيا لتعزيز أعمالهم وابتكاراتهم.

المصدر: بوابة الفجر

كلمات دلالية: جوجل الذكاء الاصطناعي علامات مائية تطبيقات الذكاء الاصطناعي علوم البيانات

إقرأ أيضاً:

خبير مغربي يحذر من استخدام الذكاء الاصطناعي في صياغة المراسلات داخل المؤسسات الحكومية

حذر حسن خرجوج، الخبير في مجال التطوير المعلوماتي والأمن السيبراني، من المخاطر الناجمة عن الاعتماد على تطبيق الذكاء الاصطناعي “شات جي بي تي” في صياغة الرسائل البريدية خاصة داخل الوزارات والمؤسسات الحكومية وشبه الحكومية والشركات.

وأكد المتحدث، أن “إدخال معلومات حساسة إلى هذا النظام يعرضها للتسريب أو الاستغلال غير المشروع، مما قد يعرض هذه المؤسسات لعواقب غير محسوبة تهدد سريتها وأمنها المعلوماتي”.

وأوصى الخبير مستخدمي هذه التقنيات بضرورة تجنب إدخال أي بيانات سرية يمكن أن تشكل تهديدا للأمن المعلوماتي والخصوصية الرقمية للمؤسسات الحكومية والشركات.

مقالات مشابهة

  • خبير مغربي يحذر من استخدام الذكاء الاصطناعي في صياغة المراسلات داخل المؤسسات الحكومية
  • الذكاء الاصطناعي يهدد شركات الأزياء
  • «جوجل» تطلق النسخة الأولية من أندرويد 16 للمطورين مع ميزات جديدة
  • “سدايا” تطلق أداة التقييم الذاتي لأخلاقيات الذكاء الاصطناعي
  • CairoICT’24.. نوتانيكس تطلق منصة الذكاء الاصطناعي الجديدة GPT-in-a-Box 2.0
  • دراسة: الذكاء الاصطناعي يكتب الشعر أفضل من البشر
  • «قمة المعرفة 2024» تستكشف آفاق الذكاء الاصطناعي وتأثيره على المحتوى الرقمي
  • مؤسسة توكل كرمان تطلق برنامج تدريبي يستفيد منه أكثر من عشرة آلاف شاب وتأهيلهم لسوق العمل وتمكينهم عبر الذكاء الاصطناعي
  • «معلومات الوزراء» يستعرض جهوده في مجال استخدام الذكاء الاصطناعي
  • شركات الذكاء الاصطناعي تقدم خدماتها للجيش الأميركي.. ما القصة؟