بوابة الوفد:
2024-11-23@03:35:49 GMT

هاتف Pixel 9 يأتي مزودًا بمساعد الذكاء الاصطناعي Pixie

تاريخ النشر: 16th, December 2023 GMT

تعمل شركة جوجل على إنشاء مساعد Android AI جديد وأكثر تطورًا يسمى Pixie ومن المقرر أن يصل مع هاتف Pixel 9، وفقًا لتقرير صادر عن The Information. استنادًا إلى نموذج اللغة الكبير Gemini الجديد للشركة (LLM)، سيكون قادرًا على أداء "مهام معقدة ومتعددة الوسائط" مثل إعطائك توجيهات إلى أقرب متجر لشراء منتج قمت بتصويره على هاتفك الذكي.

سيكون المساعد حصريًا لأجهزة Pixel من Google وسيستخدم البيانات من منتجات Google مثل Gmail والخرائط. ويشير التقرير إلى أن ذلك من شأنه أن يساعده على "التطور إلى إصدار أكثر تخصيصًا من مساعد Google". يبدو أنه منتج منفصل عن مساعد Google مع Bard الذي تم عرضه في Made By Google في أكتوبر.

إذا كان التقرير دقيقًا، فإن التقرير الخاص بالتحديث يُظهر أن Google تجري تغييرات جذرية على خريطة طريق الذكاء الاصطناعي الخاصة بها لإبقاء OpenAI المنافسة في مرمى البصر. كشفت Google للتو عن Gemini AI الأسبوع الماضي كإجابة على GPT-4، واصفة إياه بأنه "النموذج الأكثر قدرة الذي قمنا ببنائه على الإطلاق". وأعلنت أيضًا أن Gemini سيأتي إلى Android عبر منتج جديد يسمى Nano، مما يمنح هاتفك القدرة على القيام بأشياء مثل تلخيص المحادثات والمكالمات دون الحاجة إلى الاتصال بالإنترنت.

للتذكير، تم إطلاق Gemini الأسبوع الماضي كنموذج ذكاء اصطناعي متكامل متعدد الوسائط، بدلاً من نماذج متعددة مجمعة معًا (ومع ذلك، تم الإبلاغ عن أجزاء من عرض Gemini التجريبي من Google). ومن المفترض أن يسمح ذلك لها "بفهم جميع أنواع المدخلات والتفكير فيها بسلاسة من الألف إلى الياء، وهو أفضل بكثير من النماذج المتعددة الوسائط الحالية". مع Pixie المدعوم من Gemini، يمكن أن يكون مساعدًا شخصيًا أكثر تطورًا بكثير من مساعد Google، على سبيل المثال. ستعمل Gemini أيضًا على تشغيل الجيل القادم من Bard، مساعد Google للدردشة الذي يعمل بالذكاء الاصطناعي.

كما هو الحال مع منتجات Google السابقة، سيكون من الصعب على المستهلكين التعرف على جميع عروض الذكاء الاصطناعي المختلفة (انظر ما فعلته هناك). لدينا الآن Pixie وBard وGemini وGemini Nano (للهواتف الذكية) وGemini Pro (لمتصفح Chrome ومكالمات API والمزيد) وGemini Ultra، التي ستصدر في عام 2024. على النقيض من ذلك، أبقت OpenAI الأمور بسيطة نسبيًا مع GPT-4 كونه LLM، وChatGPT هو مساعد الدردشة، وDALL-E هو منشئ الصور. لقد سمع معظم المستهلكين الأذكياء على الأقل عن هذه الأشياء، لكن جوجل جعلت من الصعب مرة أخرى على الأشخاص مواكبة مجموعة منتجاتها الخاصة.

المصدر: بوابة الوفد

إقرأ أيضاً:

الذكاء الاصطناعي مجرد وهم.. باحثون يكشفون السبب

تابع أحدث الأخبار عبر تطبيق

في تطور جديد يعيد تقييم فعالية الذكاء الاصطناعي، أعلن باحثون بإحدى شركات التكنولوجيا العملاقة أن الذكاء الاصطناعي، وخصوصًا النماذج اللغوية الكبيرة، يُظهر سلوكًا يُوحي بالذكاء ولكنه في الواقع مجرد وهم، هذه النماذج تُظهر قدرة على الاستجابة والتفاعل مع المستخدمين، إلا أنها تفتقر إلى التفكير المنطقي الحقيقي وفهم السياق العميق.

ووفقا لموقع techxplore أن الباحثون يقولون رغم التقدم الكبير الذي حققته تطبيقات الذكاء الاصطناعي، توضح دراسة باحثي شركة التكنولوجيا أن هذه التقنيات ما زالت بعيدة عن تحقيق ذكاء حقيقي، والنماذج الحالية تعتمد على تقنيات تحليل الأنماط بدلاً من الفهم العميق أو التفكير المنطقي، مما يجعلها أداة مفيدة ولكنها ليست بديلاً عن العقل البشري، ونُشر البحث عبر منصة arXiv preprint.
 

نقاط البحث الأساسية:

• أجريت الدراسة على نماذج لغوية كبيرة، مثل تلك المستخدمة في تطبيقات الذكاء الاصطناعي الشائعة.

• أظهرت النتائج أن هذه النماذج لا تفهم الأسئلة المطروحة فهمًا حقيقيًا، بل تعتمد على بنية الجمل والخوارزميات المكتسبة.
 

الفرضية الأساسية للدراسة:

افترض الباحثون أن الذكاء الحقيقي، سواء للكائنات الحية أو الآلات، يتطلب القدرة على:

1. التمييز بين المعلومات ذات الصلة وغير ذات الصلة: مثال ذلك، إذا سأل طفل والده عن عدد التفاح في حقيبة تحتوي على تفاح صغير الحجم، يمكن للعقل البشري تجاهل حجم التفاح كعامل غير ذي صلة بالإجابة.

2. إظهار التفكير المنطقي: القدرة على استخلاص الاستنتاجات الصحيحة بناءً على المعطيات المتاحة.

اختبار النماذج اللغوية الكبيرة:

• استخدم الباحثون مئات الأسئلة التي استُخدمت سابقًا لتقييم قدرة النماذج اللغوية.

• أضيفت معلومات غير ذات صلة إلى هذه الأسئلة لقياس قدرة الذكاء الاصطناعي على تجاهلها.

• النتيجة: أدى وجود معلومات زائدة إلى إرباك الذكاء الاصطناعي، مما نتج عنه إجابات خاطئة أو غير منطقية.

نتائج البحث:

1. عدم الفهم الحقيقي للسياق

النماذج اللغوية الكبيرة لا تفهم الأسئلة فهمًا عميقًا. بدلاً من ذلك، تستند إلى التعرف على الأنماط وتوليد إجابات تعتمد على البيانات السابقة.

2. إجابات مضللة

أعطت النماذج إجابات بدت صحيحة ظاهريًا، لكنها عند الفحص الدقيق تبين أنها خاطئة أو غير متسقة مع المنطق.

3. الوهم الذكي

النماذج تظهر وكأنها “تفكر” أو “تشعر”، لكنها في الواقع تعتمد على خوارزميات تعليم الآلة للتفاعل مع المستخدم، دون وجود ذكاء حقيقي أو إدراك.

أمثلة توضيحية من البحث:

سؤال بسيط: عند طرح سؤال على الذكاء الاصطناعي يتضمن معلومات غير ضرورية، غالبًا ما يدمجها في إجابته بدلاً من تجاهلها.

الشعور والإحساس: عند سؤال الذكاء الاصطناعي عن “شعوره” تجاه أمر معين، قد يقدم إجابات تُوحي بأنه يشعر، لكن هذه مجرد خدعة لغوية تعتمد على بيانات التدريب.

دلالات البحث:

• النتائج تعزز وجهة النظر التي ترى أن الذكاء الاصطناعي ليس “ذكاءً” حقيقيًا بالمعنى البشري، بل هو نموذج إحصائي معقد.

• تؤكد الدراسة أن الذكاء الاصطناعي الحالي غير قادر على التفكير المنطقي أو فهم السياق كما يفعل الإنسان.

التحديات المستقبلية:

• تحسين قدرة النماذج اللغوية على الفصل بين المعلومات ذات الصلة وغير ذات الصلة.

• تطوير نماذج ذكاء اصطناعي تفهم السياق بشكل أفضل وتُظهر منطقًا أقرب للإنسان.

• تقليل الاعتماد على الأنماط الإحصائية وزيادة التركيز على التفاعل الديناميكي.

مقالات مشابهة

  • استخدام الذكاء الاصطناعي في ميكنة قصر العيني
  • جامعة دبي تستضيف مؤتمر الذكاء الاصطناعي وإنترنت الأشياء
  • مختص: بشكل كبير جدًا قد يحل الذكاء الاصطناعي محل الحكم في مباريات كرة القدم
  • بيل غيتس يلقي محاضرة عن الذكاء الاصطناعي
  • ما الذي يجعل Huawei Y6p خيارًا ميسور التكلفة؟
  • الذكاء الاصطناعي يساعد في الحفاظ على الحشرات
  • الذكاء الاصطناعي مجرد وهم.. باحثون يكشفون السبب
  • الذكاء الاصطناعي يهدد شركات الأزياء
  • رئيس الوزراء: مصر بالتصنيف «أ» دوليا في تطبيقات الذكاء الاصطناعي
  • كيف يواجه الذكاء الاصطناعي أزمة نقص الكوادر في الأمن السيبراني؟