ميزة ثورية من غوغل لـ"قراءة المشاعر".. ما هي؟
تاريخ النشر: 9th, December 2024 GMT
أعلنت شركة غوغل عن تطوير ميزة غريبة لمجموعة نماذج الذكاء الاصطناعي الجديدة لديها (PaliGemma 2)، تسمح لها بالقدرة على "قراءة المشاعر".
وتتميز المجموعة الجديدة بقدرتها على تحليل الصور، مما يمكّن الذكاء الاصطناعي من إنشاء تعليقات توضيحية، والإجابة على أسئلة حول الأشخاص الذين يراهم في الصور.
وبحسب إعلان غوغل، يُنشئ PaliGemma 2 تسميات توضيحية مفصلة وذات صلة بالسياق للصور، ويتجاوز التعرف البسيط على الكائنات لوصف الإجراءات والعواطف والسرد العام للمشهد.
بدورها، قالت غوغل إنها أجرت اختبارات واسعة النطاق لتقييم التحيزات الديموغرافية في PaliGemma 2، وسجلت مستويات منخفضة من "الكراهية والألفاظ النابية" مقارنة بمعايير الصناعة، لكن الشركة لم تقدم القائمة الكاملة للمعايير التي استخدمتها، ولم تشر إلى أنواع الاختبارات التي تم إجراؤها.
المعيار الوحيد الذي كشفت عنه غوغل هو FairFace، وهو عبارة عن مجموعة من عشرات الآلاف من صور الأشخاص، ورغم قول الشركة إن PaliGemma 2 سجل نتائج جيدة على FairFace، لكن انتقد بعض الباحثين ذلك المعيار باعتباره مقياساً متحيزاً، مشيرين إلى أنه لا يمثل سوى عدد قليل من المجموعات العرقية.
على الجانب الآخر، أعرب متخصصون في الذكاء الاصطناعي عن قلقهم من تلك الميزة، ففي تصريحات لموقع Tech crunch، قالت ساندرا واتشر، أستاذة أخلاقيات البيانات والذكاء الاصطناعي في معهد أكسفورد للإنترنت: "هذا أمر مقلق للغاية بالنسبة لي، أجد أنه من الصعب افتراض أننا نستطيع قراءة مشاعر الناس".
في السياق ذاته، أوضح مايك كوك، زميل باحث في جامعة كينغز كوليدج لندن المتخصصة في الذكاء الاصطناعي، أن اكتشاف المشاعر غير ممكن في الحالة العامة، لأن الناس يختبرون المشاعر بطرق معقدة.
وأشار إلى أن أنظمة الكشف عن المشاعر أثارت حفيظة الجهات التنظيمية في الخارج، التي سعت إلى الحد من استخدام التكنولوجيا في السياقات عالية المخاطر، إذ يحظر قانون الذكاء الاصطناعي في الاتحاد الأوروبي على المدارس وأصحاب العمل نشر أجهزة كشف المشاعر، باستثناء وكالات إنفاذ القانون.
وعليه، تتمثل أكبر مخاوف النماذج المفتوحة مثل PaliGemma 2 في إساءة استخدامها، مما قد يؤدي إلى ضرر حقيقي.
المصدر: موقع 24
كلمات دلالية: سقوط الأسد حصاد 2024 الحرب في سوريا عودة ترامب عام على حرب غزة إيران وإسرائيل إسرائيل وحزب الله غزة وإسرائيل الإمارات الحرب الأوكرانية الذكاء الاصطناعي غوغل غوغل الذكاء الاصطناعي الذکاء الاصطناعی
إقرأ أيضاً:
هل يجعلنا الذكاء الاصطناعي أغبياء؟
الولايات المتحدة – الذكاء الاصطناعي هو أول تكنولوجيا في تاريخ البشرية يمكنها أن تحل محل “عملية التفكير”.
وكانت البرامج المساعدة مثل (Excel) تهدف سابقا إلى تبسيط العمليات الحسابية مع ضرورة فهم الإنسان للصيغ المستخدمة وسبب استخدامها، بينما كان الإنترنت يُستخدم للبحث عن المعلومات ضمن إطار أكثر تحديدا. أما اليوم، فإن الشبكات العصبية تتمتع بخوارزميات أكثر مرونة. ومع تطورها، قد تتمكن في نهاية المطاف من “الاستيلاء” على عملية التفكير، مما يشكل تهديدا مباشرا لقدرات البشر المعرفية.
وأصبح تأثير الذكاء الاصطناعي على الإنجازات الأكاديمية للطلاب ملحوظا بالفعل. وعلى سبيل المثال، أظهرت الدراسات أن الطلاب الذين يستخدمون الذكاء الاصطناعي حصلوا على نتائج أسوأ في اختبارات وامتحانات الرياضيات، مقارنة بزملائهم الذين لم يستخدموا هذه التكنولوجيا.
وعندما قارن الباحثون من جامعة “بنسلفانيا” الأمريكية أداء ما يقرب من 1000 طالب تركي في المرحلة الثانوية في مادة الرياضيات، لاحظوا أن الطلاب الذين استخدموا ChatGPT كانت نتائجهم أسوأ بنسبة 17% في الامتحانات النهائية، على الرغم من أنهم قاموا بحل عدد أكبر من المسائل بشكل صحيح أثناء التحضير (بزيادة تتراوح بين 48% و127%)، مقارنة بالطلاب الذين اعتمدوا على أنفسهم.
وتثير هذه النتائج تساؤلات حول إحدى الفوائد الرئيسية التي يشير إليها الخبراء للذكاء الاصطناعي، وهي التعليم المتخصص والمساعدة في البيئة الأكاديمية. وكما قال مؤلفو الدراسة، فإن الشبكات العصبية تعمل كـ”عكازات” أثناء التعلم، مما يتطلب توخي الحذر عند دمجها في عملية التعليم لضمان اكتساب مهارات التفكير النقدي.
وقد أظهرت دراسات أخرى أجريت على الطلاب الألبان أن الشبكات العصبية قد تعيق تطوير القدرة على حل المشكلات بشكل مستقل، حيث قد يعتمد الطلاب بشكل مفرط على هذه الأدوات ولا يتمكنون من مواجهة التحديات الفكرية والمهنية بدون الاعتماد على”عكاز الذكاء الاصطناعي”. بالإضافة إلى ذلك، فإن برامج مثل ChatGPT قد تقوض كفاءة الطلاب في استيعاب مجالات معرفية جديدة مع فهم عميق للظواهر والعمليات الأساسية التي تشكلها. والنتيجة هي معرفة سطحية ومستوى منخفض من الخبرة.
المصدر: تاس