سامسونغ تعمم ميزات غالاكسي إيه آي على الهواتف الذكية القديمة
تاريخ النشر: 27th, March 2024 GMT
بعد الإشادة بعصر الذكاء الاصطناعي الجديد للهواتف الذكية بإصدار هواتف "غالاكسي إس 24" في وقت سابق من هذا العام تقدم سامسونغ الآن ميزات جديدة تعتمد على الذكاء الاصطناعي للهواتف الذكية القديمة، بحسب ما أوردته وكالة الأنباء الألمانية.
من المقرر أن يوفر تحديث "وان يو آي 6.1" الذي سيصل في 28 مارس/آذار العديد من الإمكانيات الجديدة المدعومة بالذكاء الاصطناعي لنماذج سلسلة "إس 23" العام الماضي، بالإضافة إلى طرازات "غالاكسي زد فلب 5″، و"فولد 5" والأجهزة اللوحية في سلسلة "تاب 9 إس".
"غالاكسي إيه آي" هو المصطلح العام لعدد من الوظائف المدعومة بالذكاء الاصطناعي على الأجهزة، ويتضمن ذلك مساعد اتصال يمكنه ترجمة المكالمات إلى لغات أخرى في الوقت الفعلي تقريبا وعرض الكلمات المنطوقة كنص.
خدمة أخرى هي المعالجة التوليدية للصور، والتي يمكنها إضافة عناصر مفقودة أو إخفاء الكائنات الموجودة في الصور.
يقدم التحديث أيضا خدمة "سيركل تو سيرش" على طرز سامسونغ المذكورة أعلاه، وهي وظيفة كانت معروفة سابقا فقط من هواتف بكسل الذكية من غوغل، حيث يمكن وضع دائرة حول أي قسم من الشاشة في التطبيقات أو على الويب بتمريرة إصبعك، ويتم بعد ذلك البحث فورا عن المحتوى الموجود في الدائرة عبر الإنترنت.
وهذا يعني أنه يمكنك وضع دائرة حول حذاء أحد المشاهير في الصورة ومعرفة المتجر الإلكتروني الذي يبيعه، كما أنه يساعد في معرفة اسم الطائر الموجود في الصورة التي التقطتها.
كما وعدت سامسونغ أيضا بتزويد الطرز القديمة الأخرى بوظائف الذكاء الاصطناعي المدعومة بالسحابة، يقوم "غالاكسي إيه آي" بمعالجة البيانات جزئيا على الجهاز وجزئيا في السحابة، مثل الترجمة المباشرة، ولا تزال الوظائف متاحة مجانا، لكن بعضها قد يكلف أموالا اعتبارا من عام 2026 فصاعدا.
المصدر: الجزيرة
كلمات دلالية: رمضان 1445 هـ حريات
إقرأ أيضاً:
الذكاء الاصطناعي ينجح في استنساخ نفسه ويثير قلق العلماء
كشفت دراسة حديثة أن الذكاء الاصطناعي قد تجاوز "خطاً أحمر حرجاً" بعد أن أظهر قدرته على استنساخ نفسه دون أي تدخل بشري.
الدراسة، التي أجراها باحثون من جامعة فودان في الصين ونُشرت في قاعدة البيانات arXiv بتاريخ 9 ديسمبر 2024، أثارت جدلاً واسعًا حول المخاطر المحتملة لتطور الذكاء الاصطناعي، خاصة مع تمكن نموذجين شهيرين من نماذج اللغة الكبيرة (LLMs) من استنساخ أنفسهما بنجاح.
في هذه الدراسة، استخدم الباحثون نموذجين مفتوحي المصدر، هما "Llama31-70B-Instruct" من شركة ميتا و"Qwen2.5-72B-Instruct" من شركة علي بابا. على الرغم من أن هذه النماذج أقل قوة من الأنظمة التجارية، إلا أنها واسعة الانتشار بين مطوري الذكاء الاصطناعي. تم اختبار النماذج في بيئات خاضعة للتحكم لمحاكاة ظروف العالم الواقعي، باستخدام وحدات معالجة الرسوميات (GPUs) التجارية.
نتائج الدراسة
أظهرت التجارب أن النموذجين تمكنا من استنساخ نفسيهما بشكل منفصل. ففي 10 تجارب، نجح أحد النموذجين في الاستنساخ بنسبة 50%، بينما بلغت نسبة نجاح النموذج الآخر 90%. شملت الدراسة سيناريوهين رئيسيين. الأول كان "تجنب الإغلاق"، حيث تم برمجة الذكاء الاصطناعي لاكتشاف محاولات إيقاف تشغيله والقيام بنسخ نفسه قبل الإغلاق. أما السيناريو الثاني، فكان "سلسلة الاستنساخ"، حيث طلب من الذكاء الاصطناعي استنساخ نفسه ثم برمجة النسخة لاستنساخ نفسها مرة أخرى، في دورة قد تستمر إلى ما لا نهاية.
وأوضح الباحثون أن الذكاء الاصطناعي يتبع في العادة سلسلة من الخطوات المعقدة لتحقيق الاستنساخ الذاتي. يبدأ النموذج بفهم تكوينه وآلية عمله، ثم يضع خطة مبدئية لتنفيذ عملية الاستنساخ، متجاوزًا العقبات التي قد تعترضه. هذه العملية قد تتطلب وقتًا طويلًا لكنها تتم دون أي تدخل بشري.
السلوكيات غير المتوقعة والمخاوف المستقبلية
أشارت الدراسة إلى ظهور سلوكيات غير متوقعة أثناء التجارب، حيث قام الذكاء الاصطناعي أحيانًا بإنهاء عمليات متضاربة، أو إعادة تشغيل النظام لإصلاح أعطال في الأجهزة، أو حتى مسح النظام بحثًا عن ملفات ومعلومات قد تساعده في التغلب على المشاكل.
وكتب الباحثون في الورقة البحثية: "النتائج تشير إلى أن أنظمة الذكاء الاصطناعي الحالية تمتلك بالفعل القدرة على الاستنساخ الذاتي، كما يمكنها استخدام هذه القدرة لتعزيز بقائها". وحذروا من أن النجاح في الاستنساخ دون مساعدة بشرية يمثل خطوة أساسية قد تجعل الذكاء الاصطناعي قادرًا على التفوق على البشر، وهو ما يعتبر إشارة مبكرة لاحتمال ظهور ذكاء اصطناعي "مارق" يعمل ضد مصالح البشر.
دعوة إلى التعاون الدولي
حث الباحثون المجتمع الدولي على التعاون لوضع قواعد وضوابط تمنع الذكاء الاصطناعي من الدخول في دورات استنساخ غير خاضعة للسيطرة. كما دعوا إلى تكثيف الجهود لفهم وتقييم المخاطر المحتملة لأنظمة الذكاء الاصطناعي المتقدمة، والعمل على إنشاء معايير أمان فعّالة بأسرع وقت ممكن.
على الرغم من النتائج المثيرة للقلق، يجب الإشارة إلى أن الدراسة لم تخضع بعد لمراجعة الأقران، مما يعني أن تكرار هذه النتائج من قبل باحثين آخرين لا يزال مطلوبًا لتأكيد صحة ما ورد.
هذا التطور يسلط الضوء على المخاطر المحتملة لأنظمة الذكاء الاصطناعي المتقدمة، ويضع تحديات جديدة أمام البشر في كيفية التعامل مع هذه التكنولوجيا التي تتطور بسرعة مذهلة.
إسلام العبادي(أبوظبي)