"آبل" تنتقل إلى مجال الواقع المعزز خلال 2024
تاريخ النشر: 29th, December 2023 GMT
من المتوقع أن تكون الموجة التالية من نماذج الذكاء الاصطناعي وانتقال شركة آبل إلى مجال الواقع المعزز من بين أبرز نقاط الحديث في قطاع التكنولوجيا عام 2024.
وفيما يلي نظرة فاحصة على ما يحتمل أن تكون القضايا التقنية الرئيسية لعام 2024:
الموجة التالية من نماذج الذكاء الاصطناعي التوليديةفي حين شهد عام 2023 أن نماذج الذكاء الاصطناعي المنتجة في تطبيقات مثل ChatGPT وBard أصبحت جزءا من الحياة اليومية، فمن المرجح أن يشهد العام المقبل مزيدا من التوسع في استخدامها مع بدء ظهور الجيل التالي من النماذج.
ويتوقع العديد من الخبراء بالفعل أن هذه التطبيقات ستكون أقوى بكثير من تلك المستخدمة حاليا ما يعني أن تطبيقات الذكاء الاصطناعي ستكون قادرة على القيام بمهام أكثر تعقيدا ولكن من المرجح أيضا أن تتزايد المخاوف بشأن تأثير هذه النماذج على التعليم وسوق العمل نتيجة لذلك
وكانت تكنولوجيا الواقع الافتراضي والمختلط موجودة منذ فترة، وحققت درجات متفاوتة من النجاح، بدءا من جهاز PlayStation VR وحتى سماعات الرأس Quest.
ولكن في عام 2024 قد تبدأ شركة آبل في طرح أولى سماعات Vision Pro الخاصة بها ومع تشغيل الجهاز و يتمكن المستخدمون من رؤية التطبيقات التي تطفو أمامهم، متراكبة على العالم الحقيقي والتفاعل معها باستخدام إيماءات اليد.
ومن المتوقع أن يكون طرح Vision Pro بطيئا وثابتا، مع تأكيد إطلاقه في الولايات المتحدة فقط حتى الآن.
وسيلعب الذكاء الاصطناعي المتطور دورا في هذا المجال أيضا، مع انتشار التزييف العميق لعدد من السياسيين البارزين عبر الإنترنت.
المصدر: البوابة نيوز
كلمات دلالية: تطوير أبل الذكاء الاصطناعي تكنولوجيا الواقع الافتراضي الذکاء الاصطناعی
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي قادر على الخداع
تابع أحدث الأخبار عبر تطبيق
أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية أنثروبيك أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين وإبداء وجهات نظر مختلفة خلال تدريبها وفقا لما نشرته مجلة تك كرانش المتخصصة فى هذا المجال .
كشف فريق البحث إنه لا يوجد سبب للشعور بالفزع حاليا في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
ولهذا يجب النظر إلى تلك النتائج كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة بعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة.
تمت الدراسة بالتعاون مع مؤسسة ريد وود ريسيرش لأبحاث الذكاء الاصطناعي وتناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة لا يريد هوالقيام بها.
كما أن لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ ، فهي ببساطة آلات إحصائية وبعد تدريبها على العديد من الأمثلة تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة إلى من في رسالة بريد إلكتروني قبل عبارة قد يهمك الأمر.
وفى أثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة بما في ذلك النموذج "كلاود3 أوبس" التابع لشركة "أنثروبيك" والتي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة وهو تضارب واضح في المبادئ كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي ورقة ملاحظات .
ويمكنه استخدامها لتدوين أفكاره خطوة بخطوة وبحسب الباحثين فحاول "كلاود3 أوبوس" التلاعب بالردود لتقديم انحياز زائف في 12% من المرات.