لماذا اتصل مسؤول جوجل بإيلون ماسك ليلاً
تاريخ النشر: 25th, February 2024 GMT
تصدرت شركة Gemini التابعة لشركة Google عناوين الأخبار في وقت سابق من هذا الأسبوع عندما اتُهمت برفض إنتاج صور للأشخاص البيض. توجه العديد من المستخدمين إلى وسائل التواصل الاجتماعي وانتقدوا أحدث نموذج لغة كبير من Google، حتى أن البعض قالوا إنه "مستيقظ للغاية". إيلون ماسك، الذي انتقد أدوات الذكاء الاصطناعي التوليدية في الماضي، انتقد أيضًا جيميني وقال إنها جعلت "برمجة جوجل العنصرية واضحة للجميع".
الآن، في تغريدة جديدة، يقول Musk أن أحد كبار المسؤولين التنفيذيين في Google تواصل معه وقال إنهم يعملون على عيوب Gemini.
وجاء في تغريدة ماسك: "اتصل بي أحد كبار المسؤولين التنفيذيين في Google وتحدث معي لمدة ساعة الليلة الماضية. وأكد لي أنهم يتخذون إجراءات فورية لإصلاح التحيز العنصري والجنسي في برج الجوزاء.
وفي وقت سابق، قال ماسك إن جوجل "بالغت في تقدير دورها" في توليد الصور باستخدام الذكاء الاصطناعي، ووصف برمجتها بأنها "عنصرية ومعادية للحضارة بجنون".
وجاء في تغريدة له: "أنا سعيد لأن جوجل بالغت في تقدير قدراتها من خلال توليد صور الذكاء الاصطناعي، لأنها جعلت برامجها العنصرية المجنونة والمعادية للحضارة واضحة للجميع".
إذن ما الذي حدث بالفعل مع الجوزاء؟ كما ذكرنا سابقًا، واجهت أداة الذكاء الاصطناعي مؤخرًا انتقادات بسبب إنتاج صور متحيزة وغير دقيقة تاريخيًا. تم اتهام نظام الذكاء الاصطناعي بأنه "مستيقظ للغاية" ويحصل على تفاصيل حول "الأشخاص البيض" بشكل خاطئ. تحدثت العديد من شكاوى المستخدمين عن عدم قدرة Gemini على إنشاء صور "للأشخاص البيض" بدقة. أفاد المستخدمون أنه عندما طلبوا صورًا لشخصيات مثل البابا أو الملوك الإنجليز أو الفايكنج أو حتى الجنود النازيين، أنتج الذكاء الاصطناعي صورًا لأفراد ذوي ألوان بشرة داكنة.
وقد أدرك جاك كراوزيك، المدير الأول لإدارة المنتجات في Gemini Experiences، هذه المخاوف. وأكد أن Google تأخذ التمثيل والتحيز على محمل الجد، بما يتماشى مع مبادئ الذكاء الاصطناعي الخاصة بها، والتي تركز على عكس قاعدة المستخدمين العالمية المتنوعة. وأوضح كراوتشيك أنه على الرغم من أن قدرات توليد الصور تم تصميمها مع أخذ هذه المبادئ في الاعتبار، إلا أن الذكاء الاصطناعي يحتاج إلى الضبط الدقيق، خاصة بالنسبة للمطالبات المتعلقة بالشخصيات التاريخية.
صرح Krawczyk: "نحن ندرك أن Gemini يقدم معلومات غير دقيقة في بعض صور توليد الصور التاريخية، ونحن نعمل على إصلاح ذلك على الفور. السياقات التاريخية لها فروق دقيقة أكثر، وسنقوم بضبطها لاستيعاب ذلك."
بالإضافة إلى ذلك، أوقفت Google مؤقتًا ميزة إنشاء الصور الخاصة بـ Gemini وأصدرت بيانًا قالت فيه إنها تعمل على حل المشكلات التي تم الإبلاغ عنها. وأشارت الشركة إلى أنه "أثناء قيامنا بذلك، سنقوم بإيقاف إنشاء صور الأشخاص مؤقتًا وسنعيد إصدار نسخة محسنة قريبًا".
المصدر: بوابة الوفد
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
الذكاء الاصطناعي مجرد وهم.. باحثون يكشفون السبب
تابع أحدث الأخبار عبر تطبيق
في تطور جديد يعيد تقييم فعالية الذكاء الاصطناعي، أعلن باحثون بإحدى شركات التكنولوجيا العملاقة أن الذكاء الاصطناعي، وخصوصًا النماذج اللغوية الكبيرة، يُظهر سلوكًا يُوحي بالذكاء ولكنه في الواقع مجرد وهم، هذه النماذج تُظهر قدرة على الاستجابة والتفاعل مع المستخدمين، إلا أنها تفتقر إلى التفكير المنطقي الحقيقي وفهم السياق العميق.
ووفقا لموقع techxplore أن الباحثون يقولون رغم التقدم الكبير الذي حققته تطبيقات الذكاء الاصطناعي، توضح دراسة باحثي شركة التكنولوجيا أن هذه التقنيات ما زالت بعيدة عن تحقيق ذكاء حقيقي، والنماذج الحالية تعتمد على تقنيات تحليل الأنماط بدلاً من الفهم العميق أو التفكير المنطقي، مما يجعلها أداة مفيدة ولكنها ليست بديلاً عن العقل البشري، ونُشر البحث عبر منصة arXiv preprint.
نقاط البحث الأساسية:
• أجريت الدراسة على نماذج لغوية كبيرة، مثل تلك المستخدمة في تطبيقات الذكاء الاصطناعي الشائعة.
• أظهرت النتائج أن هذه النماذج لا تفهم الأسئلة المطروحة فهمًا حقيقيًا، بل تعتمد على بنية الجمل والخوارزميات المكتسبة.
الفرضية الأساسية للدراسة:
افترض الباحثون أن الذكاء الحقيقي، سواء للكائنات الحية أو الآلات، يتطلب القدرة على:
1. التمييز بين المعلومات ذات الصلة وغير ذات الصلة: مثال ذلك، إذا سأل طفل والده عن عدد التفاح في حقيبة تحتوي على تفاح صغير الحجم، يمكن للعقل البشري تجاهل حجم التفاح كعامل غير ذي صلة بالإجابة.
2. إظهار التفكير المنطقي: القدرة على استخلاص الاستنتاجات الصحيحة بناءً على المعطيات المتاحة.
اختبار النماذج اللغوية الكبيرة:
• استخدم الباحثون مئات الأسئلة التي استُخدمت سابقًا لتقييم قدرة النماذج اللغوية.
• أضيفت معلومات غير ذات صلة إلى هذه الأسئلة لقياس قدرة الذكاء الاصطناعي على تجاهلها.
• النتيجة: أدى وجود معلومات زائدة إلى إرباك الذكاء الاصطناعي، مما نتج عنه إجابات خاطئة أو غير منطقية.
نتائج البحث:
1. عدم الفهم الحقيقي للسياق
النماذج اللغوية الكبيرة لا تفهم الأسئلة فهمًا عميقًا. بدلاً من ذلك، تستند إلى التعرف على الأنماط وتوليد إجابات تعتمد على البيانات السابقة.
2. إجابات مضللة
أعطت النماذج إجابات بدت صحيحة ظاهريًا، لكنها عند الفحص الدقيق تبين أنها خاطئة أو غير متسقة مع المنطق.
3. الوهم الذكي
النماذج تظهر وكأنها “تفكر” أو “تشعر”، لكنها في الواقع تعتمد على خوارزميات تعليم الآلة للتفاعل مع المستخدم، دون وجود ذكاء حقيقي أو إدراك.
أمثلة توضيحية من البحث:
• سؤال بسيط: عند طرح سؤال على الذكاء الاصطناعي يتضمن معلومات غير ضرورية، غالبًا ما يدمجها في إجابته بدلاً من تجاهلها.
• الشعور والإحساس: عند سؤال الذكاء الاصطناعي عن “شعوره” تجاه أمر معين، قد يقدم إجابات تُوحي بأنه يشعر، لكن هذه مجرد خدعة لغوية تعتمد على بيانات التدريب.
دلالات البحث:
• النتائج تعزز وجهة النظر التي ترى أن الذكاء الاصطناعي ليس “ذكاءً” حقيقيًا بالمعنى البشري، بل هو نموذج إحصائي معقد.
• تؤكد الدراسة أن الذكاء الاصطناعي الحالي غير قادر على التفكير المنطقي أو فهم السياق كما يفعل الإنسان.
التحديات المستقبلية:
• تحسين قدرة النماذج اللغوية على الفصل بين المعلومات ذات الصلة وغير ذات الصلة.
• تطوير نماذج ذكاء اصطناعي تفهم السياق بشكل أفضل وتُظهر منطقًا أقرب للإنسان.
• تقليل الاعتماد على الأنماط الإحصائية وزيادة التركيز على التفاعل الديناميكي.