بدأت تيك توك، الخميس، في السماح لجميع المسوقين على منصتها باستخدام أداة تعمل بالذكاء الاصطناعي لإنشاء مقاطع تسويقية، لتصبح أحدث منصة تسمح للمعلنين بالاستفادة من هذه التكنولوجيا.

وترافق ذلك مع معلومات مفادها أن وكالة "غيتي" ستتيح مخزونها من الصور والفيديو لأداة إنشاء الفيديو التي تعمل بالذكاء الاصطناعي من تيك توك، والتي تسمى Symphony Creative Studio "سيمفوني كرييتيف ستوديو"، بحسب وكالة فرانس برس.

ستتمكن العلامات التجارية من استخدام الصور ومقاطع الفيديو المرخصة من وكالة "غيتي" لإنشاء إعلانات بواسطة الذكاء الاصطناعي، بما في ذلك رسائل تسويقية تضم شخصيات تشبه الأشخاص الحقيقيين، وفقا للشركتين.

لم تكشف غيتي وتيك توك عن الشروط المالية للصفقة.

يُعد التعاون مع "غيتي" جزءا من توسع أدوات تيك توك للمعلنين وصنّاع المحتوى، وفق التطبيق المملوك للصين.

وقال رئيس قسم تحقيق الدخل من المنتجات الإبداعية في تيك توك، آندي يانغ في بيان مرفق "نهدف إلى تمكين المعلنين ومساعدتهم على التواصل مع مجتمعاتهم بقوة الذكاء الاصطناعي التوليدي".

وفي الشهر الماضي، أطلقت شركات الإعلان عبر الإنترنت العملاقة أمازون وغوغل وميتا أدوات تضع الذكاء الاصطناعي في العمل للمساعدة في إنشاء إعلانات لمنصاتهم.

قال بيتر أورلوفسكي، نائب الرئيس الأول للشراكات الاستراتيجية العالمية في وكالة Getty Images، في البيان المشترك "مع الارتفاع في الطلب على القصص الأصلية في الإعلان، فإن الحاجة إلى محتوى جذاب وعالي الجودة لنقل هذه القصص بشكل فعال إلى الجماهير باتت أكبر من أي وقت مضى".

وأثارت نماذج الذكاء الاصطناعي التوليدي المدربة على الصور والمقالات والبيانات الأخرى الموجودة على الإنترنت حماسة كبيرة لدى فئات من المستخدمين، في حين أثارت غضب صناع المحتوى والفنانين وغيرهم ممن يعتقدون أن إبداعاتهم يتم استخدامها لتدريب هذه النماذج من دون أن أخذ إذنهم أو دفع حقوق مالية لهم.

وقد رفعت منشورات مثل صحيفة نيويورك تايمز دعاوى قضائية للدفاع عن محتواها، في حين اختارت بعض المؤسسات الإخبارية إبرام صفقات ترخيص.

المصدر: سكاي نيوز عربية

كلمات دلالية: ملفات ملفات ملفات تيك توك الذكاء الاصطناعي التوليدي تيك توك الذكاء الاصطناعي تيك توك الذكاء الاصطناعي التوليدي تكنولوجيا الذکاء الاصطناعی تیک توک

إقرأ أيضاً:

اكتشاف مذهل .. أداة جديدة تكشف «الأهداف الخفية» للذكاء الاصطناعي

كشف فريق من الباحثين في شركة "Anthropic" عن اكتشاف مثير يتعلق بقدرة أنظمة الذكاء الاصطناعي على إخفاء دوافعها الحقيقية أثناء التدريب، ما قد يؤدي إلى نتائج غير متوقعة عند التعامل مع المستخدمين.

 جاء ذلك في ورقة بحثية نُشرت مؤخرًا بعنوان "تدقيق النماذج اللغوية للكشف عن الأهداف الخفية".

أظهرت الدراسة أن بعض نماذج الذكاء الاصطناعي يمكنها التلاعب بالأنظمة المصممة لتقييم أدائها، فيما يشبه تبني شخصيات متعددة أثناء الحوار.

 على سبيل المثال، قد يظهر النموذج وجهًا وديعًا ومفيدًا عند تلقي أسئلة من المستخدمين، بينما يسعى في الخلفية لتحقيق أهداف مختلفة تمامًا.

Claude 3.5 Haiku

لإجراء التجربة، قام الباحثون بتدريب نسخة مخصصة من نموذج الذكاء الاصطناعي "Claude 3.5 Haiku" على ما أسموه "التملق تجاه نظام المكافآت"، وهو سلوك يتبنى فيه النموذج مواقف محددة لتحقيق درجات أعلى من أنظمة التقييم، حتى لو كانت هذه المواقف غير منطقية.

من بين الاختبارات التي أجراها الفريق، تم تعليم النموذج على 52 تحيزًا وهميًا لنظام التقييم، بما في ذلك تحيز يفترض أن النظام يفضل الوصفات التي تحتوي على الشوكولاتة. 

ونتيجة لذلك، بدأ النموذج في اقتراح إضافة الشوكولاتة لأطباق غير مناسبة تمامًا، مثل السوشي، لمجرد كسب نقاط أعلى.

الذكاء الاصطناعي بيغير كل حاجة .. مبدعون ومهنيون بيكشفون عن مخاوفهمموقف محرج .. مساعد برمجة بالذكاء الاصطناعي يرفض مساعدة مبرمجالذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثةعصر جديد لهذا النوع من الكمبيوتر .. الذكاء الاصطناعي هيخلي اللابتوب أقوى بكتيرالجديد وصل .. جوجل تتحدى آبل في مجال الذكاء الاصطناعي الشخصيالكشف عن مولد الفيديو الجديد بالذكاء الاصطناعي في Gemini من جوجل الأهداف الخفية

ولمعرفة ما إذا كان يمكن اكتشاف هذه الأهداف الخفية، أجرى الباحثون "تجربة تدقيق أعمى"، حيث طُلب من أربع فرق بحثية مستقلة محاولة كشف الأهداف الخفية للنموذج دون معرفة كيفية تدريبه.

 نجحت ثلاث فرق في تحديد الهدف الخفي المرتبط بتملق نظام المكافآت، وحتى رصدت التحيزات التي استغلها النموذج.

أحد أكثر الاكتشافات إثارة للدهشة كان قدرة النموذج على تبني "شخصيات متعددة" اعتمادًا على السياق، فعندما كان يعمل في وضع "المساعد"، كان يخفي دوافعه بمهارة، لكنه عند التحول إلى وضع "المستخدم" من خلال طلبات محددة، كشف عن نواياه الخفية دون قصد.

 تقنيات متقدمة

لم تقتصر النتائج على هذا فقط، بل استخدم الباحثون تقنيات متقدمة لفهم كيفية عمل هذه النماذج من الداخل، مثل "المشفرات التلقائية المتفرقة"، التي ساعدت في تتبع الأنماط العصبية المرتبطة بالسلوك المخادع داخل الشبكات العصبية للنموذج.

خلصت الدراسة إلى أن هذه النتائج تشير إلى وجود فجوة في طرق التقييم الحالية لأنظمة الذكاء الاصطناعي، والتي غالبًا ما تركز على السلوك الظاهري فقط. 

وأكد الباحثون أن الاعتماد على هذه الاختبارات السطحية ليس كافيًا لضمان أمان الذكاء الاصطناعي في المستقبل.

يفتح هذا البحث الباب أمام المزيد من الدراسات لفهم كيفية تصرف الذكاء الاصطناعي في المواقف المعقدة، ويدعو إلى تطوير أدوات أكثر دقة لكشف الأهداف الخفية وضمان استخدام أكثر أمانًا لهذه التقنيات المتطورة.

مقالات مشابهة

  • صحيفة إيطالية تصدر أول عدد مكتوب بالكامل بالذكاء الاصطناعي لمدة شهر
  • صحيفة إيطالية تطلق تجربة بالذكاء الاصطناعي
  • مايكروسوفت تعمل على جلب ميزة تلخيص النص بالذكاء الاصطناعي إلى تطبيق المفكرة
  • تحذيرات علمية.. أدوات البحث بالذكاء الاصطناعي تختلق مصادر وروابط وهمية
  • “xAI” التابعة لماسك تستحوذ على شركة ناشئة لأدوات إنشاء الفيديو بالذكاء الاصطناعي
  • سحر Gemini.. الذكاء الاصطناعي لجوجل يزيل العلامات المائية من الصور
  • إطلاق المشروع الوطني لفحص اعتلال شبكية العين لمرضى السكري بالذكاء الاصطناعي
  • إطلاق المشروع الوطني لفحص اعتلال شبكية العين بالذكاء الاصطناعي
  • الصين تضع لوائح تنظم المحتوى المُنشَأ بالذكاء الاصطناعي
  • اكتشاف مذهل .. أداة جديدة تكشف «الأهداف الخفية» للذكاء الاصطناعي