تحذير من الارتباط العاطفي بميزة صوت الذكاء الاصطناعي!
تاريخ النشر: 11th, August 2024 GMT
يمانيون – متابعات
أعربت شركة “أوبن إيه آي” الأميركية، المطوّرة لنموذج “تشات جي بي تي”، عن قلقها من إمكانية تسبب الصوت الواقعي المتطوّر المرفق ببرنامج الذكاء الاصطناعي في تعزيز التعلّق بالتفاعلات الآلية، ما قد يؤثر سلباً على العلاقات الإنسانية.
وأشار تقرير الشركة إلى أنّ المستخدمين قد يضعون ثقة غير مبررة في البرامج الآلية، خصوصاً مع الجودة العالية للصوت في نموذج “جي بي تي- 4” أو (GPT-4o)، مما يزيد من تأثير التفاعل الآلي.
وأكّدت الشركة في تقريرها أنّ تقنيات التشبيه بالإنسان، التي تضفي خصائص بشرية على الكيانات غير البشرية مثل نماذج الذكاء الاصطناعي، قد تعزز هذا الخطر، موضحةً أنّ القدرات الصوتية تسهم في “تعزيز التفاعلات الشبيهة بالإنسان مع البرنامج الآلي”.
وذكر التقرير أنّ تقنيات التشبيه بالإنسان “تتضمن إسناد سلوكيات وخصائص خاصة بالبشر إلى كيانات غير بشرية، مثل نماذج الذكاء الاصطناعي”.
وأضاف أنّ هذه التفاعلات “قد تجعل المستخدمين أقلّ ميلاً للتواصل مع البشر”، محذّراًَ من تأثيرها على المعايير الاجتماعية. كما أنّ القدرة على تذكر التفاصيل أثناء المحادثة وإنجاز المهام قد تجعل الناس يعتمدون بشكل مفرط على التكنولوجيا، وفق التقرير.
وأشارت “أوبن إيه آي” في تقريرها أيضاً إلى أنّ الدردشة مع الذكاء الاصطناعي كما قد يفعل المرء مع شخص آخر “قد تدفع بالمستخدمين إلى أن يضعوا ثقة في غير محلها بالبرامج الآلية”، مشيرةً إلى أنها لاحظت أنّ “المستخدمين يتحدثون إلى الذكاء الاصطناعي بطرق تشير إلى روابط مشتركة، مثل التذمر بصوت عالٍ أمام البرنامج الآلي”.
وتحدث ألون يامين، المؤسس المشارك لمنصة “كوبي ليكس” لرصد السرقة الأدبية، عن المخاوف من أنّ الاعتماد على الخدمة الصوتية في “تشات جي بي تي” قد “يؤثر سلباً على التفاعل البشري والعلاقات”، مؤكّداً على ضرورة أن يكون “الذكاء الاصطناعي داعماً وليس بديلاً للتفاعل البشري الفعلي”.
وتواصل “أوبن إيه آي” اختبار تأثير القدرات الصوتية في الذكاء الاصطناعي على التفاعل العاطفي مع المستخدمين، مشددةً على ضرورة “الحذر من التجاوزات المحتملة لتقنية استنساخ الصوت”.
وكانت الشركة قد تعرضت لانتقادات بعد استخدام صوت مشابه لصوت الممثلة سكارليت جوهانسون في أحدث روبوت دردشة لها، مما أثار مخاوف من التجاوزات في استنساخ الصوت.
وعلى الرغم من نفي الشركة استخدام صوت جوهانسون، إلّا أنّ الشكوك لا تزال قائمة، خصوصاً بعد تصريح الرئيس التنفيذي للشركة، سام ألتمان، الذي أشار إلى النموذج الجديد بعبارة “هير” Her عبر وسائل التواصل الاجتماعي، مشيراً إلى فيلم “Her” الذي يعالج موضوع التعلّق العاطفي بالذكاء الاصطناعي.
المصدر: يمانيون
كلمات دلالية: الذکاء الاصطناعی إلى أن
إقرأ أيضاً:
الذكاء الاصطناعي مجرد وهم.. باحثون يكشفون السبب
تابع أحدث الأخبار عبر تطبيق
في تطور جديد يعيد تقييم فعالية الذكاء الاصطناعي، أعلن باحثون بإحدى شركات التكنولوجيا العملاقة أن الذكاء الاصطناعي، وخصوصًا النماذج اللغوية الكبيرة، يُظهر سلوكًا يُوحي بالذكاء ولكنه في الواقع مجرد وهم، هذه النماذج تُظهر قدرة على الاستجابة والتفاعل مع المستخدمين، إلا أنها تفتقر إلى التفكير المنطقي الحقيقي وفهم السياق العميق.
ووفقا لموقع techxplore أن الباحثون يقولون رغم التقدم الكبير الذي حققته تطبيقات الذكاء الاصطناعي، توضح دراسة باحثي شركة التكنولوجيا أن هذه التقنيات ما زالت بعيدة عن تحقيق ذكاء حقيقي، والنماذج الحالية تعتمد على تقنيات تحليل الأنماط بدلاً من الفهم العميق أو التفكير المنطقي، مما يجعلها أداة مفيدة ولكنها ليست بديلاً عن العقل البشري، ونُشر البحث عبر منصة arXiv preprint.
نقاط البحث الأساسية:
• أجريت الدراسة على نماذج لغوية كبيرة، مثل تلك المستخدمة في تطبيقات الذكاء الاصطناعي الشائعة.
• أظهرت النتائج أن هذه النماذج لا تفهم الأسئلة المطروحة فهمًا حقيقيًا، بل تعتمد على بنية الجمل والخوارزميات المكتسبة.
الفرضية الأساسية للدراسة:
افترض الباحثون أن الذكاء الحقيقي، سواء للكائنات الحية أو الآلات، يتطلب القدرة على:
1. التمييز بين المعلومات ذات الصلة وغير ذات الصلة: مثال ذلك، إذا سأل طفل والده عن عدد التفاح في حقيبة تحتوي على تفاح صغير الحجم، يمكن للعقل البشري تجاهل حجم التفاح كعامل غير ذي صلة بالإجابة.
2. إظهار التفكير المنطقي: القدرة على استخلاص الاستنتاجات الصحيحة بناءً على المعطيات المتاحة.
اختبار النماذج اللغوية الكبيرة:
• استخدم الباحثون مئات الأسئلة التي استُخدمت سابقًا لتقييم قدرة النماذج اللغوية.
• أضيفت معلومات غير ذات صلة إلى هذه الأسئلة لقياس قدرة الذكاء الاصطناعي على تجاهلها.
• النتيجة: أدى وجود معلومات زائدة إلى إرباك الذكاء الاصطناعي، مما نتج عنه إجابات خاطئة أو غير منطقية.
نتائج البحث:
1. عدم الفهم الحقيقي للسياق
النماذج اللغوية الكبيرة لا تفهم الأسئلة فهمًا عميقًا. بدلاً من ذلك، تستند إلى التعرف على الأنماط وتوليد إجابات تعتمد على البيانات السابقة.
2. إجابات مضللة
أعطت النماذج إجابات بدت صحيحة ظاهريًا، لكنها عند الفحص الدقيق تبين أنها خاطئة أو غير متسقة مع المنطق.
3. الوهم الذكي
النماذج تظهر وكأنها “تفكر” أو “تشعر”، لكنها في الواقع تعتمد على خوارزميات تعليم الآلة للتفاعل مع المستخدم، دون وجود ذكاء حقيقي أو إدراك.
أمثلة توضيحية من البحث:
• سؤال بسيط: عند طرح سؤال على الذكاء الاصطناعي يتضمن معلومات غير ضرورية، غالبًا ما يدمجها في إجابته بدلاً من تجاهلها.
• الشعور والإحساس: عند سؤال الذكاء الاصطناعي عن “شعوره” تجاه أمر معين، قد يقدم إجابات تُوحي بأنه يشعر، لكن هذه مجرد خدعة لغوية تعتمد على بيانات التدريب.
دلالات البحث:
• النتائج تعزز وجهة النظر التي ترى أن الذكاء الاصطناعي ليس “ذكاءً” حقيقيًا بالمعنى البشري، بل هو نموذج إحصائي معقد.
• تؤكد الدراسة أن الذكاء الاصطناعي الحالي غير قادر على التفكير المنطقي أو فهم السياق كما يفعل الإنسان.
التحديات المستقبلية:
• تحسين قدرة النماذج اللغوية على الفصل بين المعلومات ذات الصلة وغير ذات الصلة.
• تطوير نماذج ذكاء اصطناعي تفهم السياق بشكل أفضل وتُظهر منطقًا أقرب للإنسان.
• تقليل الاعتماد على الأنماط الإحصائية وزيادة التركيز على التفاعل الديناميكي.