مايكروسوفت تسمح لصانعي ألعاب Xbox باستخدام أدوات الذكاء الاصطناعي لتصميم القصة والشخصيات غير القابلة للعب
تاريخ النشر: 8th, November 2023 GMT
تعاونت Xbox مع شركة ناشئة تسمى Inworld AI لإنشاء مجموعة أدوات ذكاء اصطناعي مولدة يمكن للمطورين استخدامها لإنشاء الألعاب. إنه تعاون متعدد السنوات، وتقول العلامة التجارية المملوكة لشركة Microsoft إنه يمكنه "مساعدة المبدعين وتمكينهم في الحوار والقصة وتصميم المهام". على وجه التحديد، يتطلع الشركاء إلى تطوير "مساعد طيار لتصميم الذكاء الاصطناعي" يمكنه تحويل المطالبات إلى نصوص برمجية مفصلة وأشجار حوار ومهام وعناصر لعبة أخرى بنفس الطريقة التي يمكن بها للأشخاص كتابة الأفكار في روبوتات الدردشة المولدة بالذكاء الاصطناعي والحصول على نصوص برمجية مفصلة في المقابل.
على موقع Inworld الإلكتروني، تقول إن تقنيتها يمكنها "صياغة شخصيات ذات شخصيات مميزة ووعي سياقي يبقى في العالم". على ما يبدو، يمكن أن يوفر للمطورين "محرك شخصية متكامل تمامًا لـ AI NPCs الذي يتجاوز نماذج اللغات الكبيرة (LLMs)." الصورة أعلاه مأخوذة من أداة Droid Maker التي طورتها بالتعاون مع استوديو سرد القصص التابع لشركة Lucasfilm ILM Immersive عندما تم قبولها في برنامج Disney Accelerator. وكما يشير Kotaku، فإن تقنية الشركة لم تشحن بعد مع إصدار رئيسي للعبة، وقد تم استخدامها في الغالب للتعديلات.
يشعر المطورون بالقلق بشكل مفهوم بشأن هذه الأدوات القادمة. هناك مخاوف متزايدة بين المبدعين بشأن استخدام الشركات لعملهم لتدريب الذكاء الاصطناعي التوليدي دون إذن - حتى أن مجموعة من المؤلفين، بما في ذلك جون جريشام وجورج آر آر مارتن، رفعوا دعوى قضائية ضد شركة OpenAI، متهمين الشركة بانتهاك حقوق الطبع والنشر الخاصة بهم. ومن ثم، بالطبع، هناك القلق الدائم من أن المطورين قد يقررون الاستغناء عن الكتاب والمصممين لخفض التكاليف.
ومع ذلك، تعتقد Xbox أن هذه الأدوات يمكن أن "تساعد في تسهيل الأمر على المطورين لتحقيق رؤاهم وتجربة أشياء جديدة ودفع حدود الألعاب اليوم وتجربة تحسين اللعب واتصال اللاعبين والمزيد." وفي إعلان العلامة التجارية، قال هايان تشانغ، المدير العام لشركة Gaming AI: "سوف نتعاون ونبتكر مع منشئي الألعاب داخل استوديوهات Xbox وكذلك استوديوهات الطرف الثالث بينما نقوم بتطوير الأدوات التي تلبي احتياجاتهم وتلهم إمكانيات جديدة للمستقبل."
المصدر: بوابة الوفد
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
يتجاوز الخط الأحمر .. نتائج مقلقة للذكاء الاصطناعي فما القصة ؟
كشفت دراسة حديثة أجراها فريق باحثين من جامعة فودان الصينية، إن نموذجين شهيرين من نماذج اللغة الكبيرة (LLM) يمكنهما القيام بتكرار نفسهما، ما قد يثير العديد من المخاوف الجدية حول إمكانية القيام بتحول تلك الأنظمة إلى تقنية الذكاء الأصطناعي المارق والذي قد خرج عن نطاق السيطرة أو التعليمات التي تم القيام ببرمجته عليهاوبالتالي، قد يتصرف هذا النوع من الذكاء الاصطناعي بعدة طرق غير متوقعة أو بطرق قد تتعارض مع الأهداف البشرية.
وكتب العلماء في احدى الدراسات التي قد تم نُشرها في 9 ديسمبر 2024 وذلك على قاعدة البيانات arXiv، والتي لم تخضع بعد للمراجعة عن "التكرار الذاتي الناجح وذلك دون أي مساعدة بشرية يعد هو الخطوة الأساسية وذلك لكي يتفوق الذكاء الاصطناعي على البشر، وهو يعد إشارة مبكرة لظهور الذكاء الاصطناعي المارق."
واستخدم العلماء لنموذجين شهيرين للذكاء الاصطناعي، وهما Llama31-70B-Instruct من شركة "ميتا" وQwen2.5-72B-Instruct من شركة "علي بابا"، وذلك لاختبار قدرة الذكاء الاصطناعي على التكرار الذاتي.
وفي 10 تجارب، أنشأ النموذجان من الذكاء الاصطناعي لنسخا منفصلة تعمل بنسب نجاح بلغت حوالي من 50% و90% على التوالي، مما قد يشير إلى أن الذكاء الاصطناعي قد يكون قد اكتسب بالفعل القدرة على أن يصبح " مارقا".
وقد ركزت الدراسة على سيناريوهين رئيسيين وهما تجنب القيام بالإغلاق حيث تم برمجة الذكاء الاصطناعي لاكتشاف محاولات إغلاقه والقيام بإنشاء نسخة من نفسه قبل أن يتم القيام بإنهائه.
وقد أظهر الذكاء الاصطناعي للعديد من السلوكيات الغير متوقعة وذلك أثناء محاولته للتغلب على بعض العقبات، مثل تدمير العمليات المتعارضة، والقيام بإعادة تشغيل النظام، أو فحص النظام تلقائيا وذلك لعثور على العديد من الحلول للمشكلات. وأكد العلماء أن هذه السلوكيات قد تعزز قدرة الذكاء الاصطناعي على كلا من البقاء والتكيف.
ودعا العلماء إلى القيام بتعزيز الجهود الدولية وذلك لفهم وتقييم المخاطر المحتملة للذكاء الاصطناعي المتقدم، مشيرين إلى أن النتائج يجب أن تكون "جرس إنذار" للمجتمع العلمي والحكومات. وأكدوا على ضرورة وضع العديد من الضوابط الأمان الصارمة وذلك لمنع التكرار الذاتي غير المنضبط.
و يعد ليس من الواضح ما إذا كانت النتائج المقلقة يمكن القيام بتكرارها من قبل العديد من الباحثين الآخرين . وفي المقابل، يشير العلماء إلى أن نتائجهم قد تثير العديد من التساؤلات المهمة حول مستقبل الذكاء الاصطناعي وأثره على البشرية.