ميتا تكشف عن أداة ذكاء اصطناعي تنتج مقاطع صوت وصورة
تاريخ النشر: 5th, October 2024 GMT
يمن مونيتور/وكالات
أعلنت شركة ميتا المالكة لفيسبوك الجمعة أنها أنشأت نموذج ذكاء اصطناعي جديدا أطلقت عليه اسم “موفي جين” Movie Gen يمكنه إنشاء مقاطع مصورة مصحوبة بالصوت لتبدو واقعية وفقاً لطلبات المستخدم.
وقالت ميتا إن بإمكان هذا النموذج منافسة أدوات من شركات ناشئة رائدة في مجال إنشاء الوسائط مثل أوبن إيه.
وتضمنت عينات من إنتاج موفي جين كشفت عنها ميتا مقاطع مصورة لحيوانات تسبح وتطفو، وأخرى تستخدم صورا حقيقية لأشخاص لتصويرهم وهم مثلا يرسمون على قماش.
وقالت ميتا في منشور على مدونتها إن موفي جين يمكنه أيضاً إنشاء موسيقى خلفية وتأثيرات صوتية متزامنة مع عرض محتوى المقطع المصور، مع إمكانية استخدام الأداة لإجراء تعديلات على المقاطع.
وفي أحد المقاطع من إنتاج موفي جين، طلبت ميتا من الأداة وضع كرات تستخدم للزينة في يدي رجل يركض بمفرده في الصحراء، بينما في مقطع آخر غيرت موقف سيارات حيث كان رجل يتزلج على أرض جافة إلى أخرى تغطيها بركة مياه.
وقالت ميتا إن مدة المقطع المصور الذي ينتجه موفي جين يمكن أن تصل إلى 16 ثانية بينما يمكن أن يصل طول المقطع الصوتي إلى 45 ثانية.
يتوق خبراء التكنولوجيا في صناعة الترفيه إلى استخدام مثل هذه الأدوات لتعزيز وتسريع عملية صناعة الأفلام، في حين يشعر آخرون بالقلق إزاء تبني أنظمة يبدو أنها تدربت على أعمال حقوق الطبع والنشر دون إذن.
إلى ذلك، سلط المشرعون الضوء على المخاوف بشأن كيفية استخدام التزييف الناتج عن الذكاء الاصطناعي، أو التزييف العميق، في الانتخابات في جميع أنحاء العالم، بما في ذلك الولايات المتحدة وباكستان والهند وإندونيسيا.
وقال متحدثون باسم Meta إن الشركة من غير المرجح أن تطلق Movie Gen للاستخدام المفتوح من قبل المطورين، كما فعلت مع سلسلة Llama من النماذج كبيرة اللغات، قائلين إنها تأخذ في الاعتبار المخاطر بشكل فردي لكل نموذج. لقد رفضوا التعليق على تقييم Meta لـ Movie Gen على وجه التحديد.
لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *
التعليق *
الاسم *
البريد الإلكتروني *
الموقع الإلكتروني
احفظ اسمي، بريدي الإلكتروني، والموقع الإلكتروني في هذا المتصفح لاستخدامها المرة المقبلة في تعليقي.
Δ
شاهد أيضاً إغلاق ميديانور سبتمبر يطل علينا رغم العتمة، أَلقاً وضياءً، متفوقاً على...
تم مشاهدة طائر اللقلق مغرب يوم الاحد 8 سبتمبر 2024 في محافظة...
يا هلا و سهلا ب رئيسنا الشرعي ان شاء الله تعود هذه الزيارة ب...
نرحو ايصال هذا الخبر...... أمين عام اللجنة الوطنية للطاقة ال...
عندما كانت الدول العربية تصارع الإستعمار كان هذا الأخير يمرر...
المصدر: يمن مونيتور
إقرأ أيضاً:
اكتشاف مذهل .. أداة جديدة تكشف «الأهداف الخفية» للذكاء الاصطناعي
كشف فريق من الباحثين في شركة "Anthropic" عن اكتشاف مثير يتعلق بقدرة أنظمة الذكاء الاصطناعي على إخفاء دوافعها الحقيقية أثناء التدريب، ما قد يؤدي إلى نتائج غير متوقعة عند التعامل مع المستخدمين.
جاء ذلك في ورقة بحثية نُشرت مؤخرًا بعنوان "تدقيق النماذج اللغوية للكشف عن الأهداف الخفية".
أظهرت الدراسة أن بعض نماذج الذكاء الاصطناعي يمكنها التلاعب بالأنظمة المصممة لتقييم أدائها، فيما يشبه تبني شخصيات متعددة أثناء الحوار.
على سبيل المثال، قد يظهر النموذج وجهًا وديعًا ومفيدًا عند تلقي أسئلة من المستخدمين، بينما يسعى في الخلفية لتحقيق أهداف مختلفة تمامًا.
Claude 3.5 Haikuلإجراء التجربة، قام الباحثون بتدريب نسخة مخصصة من نموذج الذكاء الاصطناعي "Claude 3.5 Haiku" على ما أسموه "التملق تجاه نظام المكافآت"، وهو سلوك يتبنى فيه النموذج مواقف محددة لتحقيق درجات أعلى من أنظمة التقييم، حتى لو كانت هذه المواقف غير منطقية.
من بين الاختبارات التي أجراها الفريق، تم تعليم النموذج على 52 تحيزًا وهميًا لنظام التقييم، بما في ذلك تحيز يفترض أن النظام يفضل الوصفات التي تحتوي على الشوكولاتة.
ونتيجة لذلك، بدأ النموذج في اقتراح إضافة الشوكولاتة لأطباق غير مناسبة تمامًا، مثل السوشي، لمجرد كسب نقاط أعلى.
ولمعرفة ما إذا كان يمكن اكتشاف هذه الأهداف الخفية، أجرى الباحثون "تجربة تدقيق أعمى"، حيث طُلب من أربع فرق بحثية مستقلة محاولة كشف الأهداف الخفية للنموذج دون معرفة كيفية تدريبه.
نجحت ثلاث فرق في تحديد الهدف الخفي المرتبط بتملق نظام المكافآت، وحتى رصدت التحيزات التي استغلها النموذج.
أحد أكثر الاكتشافات إثارة للدهشة كان قدرة النموذج على تبني "شخصيات متعددة" اعتمادًا على السياق، فعندما كان يعمل في وضع "المساعد"، كان يخفي دوافعه بمهارة، لكنه عند التحول إلى وضع "المستخدم" من خلال طلبات محددة، كشف عن نواياه الخفية دون قصد.
تقنيات متقدمةلم تقتصر النتائج على هذا فقط، بل استخدم الباحثون تقنيات متقدمة لفهم كيفية عمل هذه النماذج من الداخل، مثل "المشفرات التلقائية المتفرقة"، التي ساعدت في تتبع الأنماط العصبية المرتبطة بالسلوك المخادع داخل الشبكات العصبية للنموذج.
خلصت الدراسة إلى أن هذه النتائج تشير إلى وجود فجوة في طرق التقييم الحالية لأنظمة الذكاء الاصطناعي، والتي غالبًا ما تركز على السلوك الظاهري فقط.
وأكد الباحثون أن الاعتماد على هذه الاختبارات السطحية ليس كافيًا لضمان أمان الذكاء الاصطناعي في المستقبل.
يفتح هذا البحث الباب أمام المزيد من الدراسات لفهم كيفية تصرف الذكاء الاصطناعي في المواقف المعقدة، ويدعو إلى تطوير أدوات أكثر دقة لكشف الأهداف الخفية وضمان استخدام أكثر أمانًا لهذه التقنيات المتطورة.