قال متحدث باسم ميتا، مالكة فيس بوك، إنها ستمنع المعلنين السياسيين من استخدام منتجاتها الإعلانية الجديدة التي تعمل بالذكاء الاصطناعي التوليدي، الأمر الذي سيعيق وصول الحملات إلى أدوات يحذر المشرعون من أنها قد تزيد من سرعة انتشار المعلومات المغلوطة عن الانتخابات.

ولم تكشف ميتا بعد عن القرار في أي تحديث لمعاييرها الإعلانية، والتي تحظر الإعلانات ذات محتوى يكشف شركاؤها في مجال تقصي الحقائق زيفه.

وميتا ليس لديها على ما يبدو أي قواعد خاصة بالذكاء الاصطناعي.
تأتي هذه السياسة بعد شهر من إعلان ميتا، ثاني أكبر منصة للإعلانات الرقمية في العالم، أنها بدأت في توسيع نطاق وصول المعلنين إلى أدوات الإعلان المدعومة بالذكاء الاصطناعي والتي يمكنها إنشاء خلفيات وتعديلات للصور وأشكال مختلفة من الإعلان بمجرد طلب ذلك كتابة.
ولم تتح الشركة هذه الأدوات في البداية إلا لمجموعة صغيرة من المعلنين اعتبارا من فصل الربيع. وقالت الشركة في ذلك الوقت إنها في طريقها لطرحها لجميع المعلنين على مستوى العالم بحلول العام المقبل.
وتتسابق ميتا وشركات أخرى للتكنولوجيا على إطلاق منتجات إعلانية مبتكرة تعمل بالذكاء الاصطناعي التوليدي وببرامج المساعد الافتراضي في الأشهر القليلة الماضية.
جاء ذلك في أعقاب الضجة التي صاحبت إطلاق شركة (أوبن إيه.آي) الناشئة المدعومة من مايكروسوفت العام الماضي روبوت الدردشة (تشات جي.بي.تي) والذي يمكنه تقديم ردود مكتوبة تشبه ردود الإنسان على الأسئلة وطلبات أخرى. *مساع لتحديث القواعد ولم تصدر الشركات سوى النزر اليسير من المعلومات حتى الآن عن قيود السلامة التي تخطط لفرضها على تلك الأنظمة، ما يجعل قرار ميتا بشأن الإعلانات السياسية أحد أهم خيارات السياسة المتعلقة بالذكاء الاصطناعي في الصناعة التي ظهرت حتى الآن.
وأعلنت جوجل التابعة لشركة ألفابت،وهي أكبر شركة إعلانات رقمية في العالم، الأسبوع الماضي عن إطلاق أدوات ذكاء اصطناعي توليدي مماثلة لتعديل الصور حسب الطلب. وقال متحدث باسم جوجل لرويترز إن الشركة تخطط لإبعاد السياسة عن منتجاتها عن طريق منع استخدام قائمة "كلمات سياسية رئيسية" لإصدار أمر أو طلب ما من محركها البحثي الذي يعمل بالذكاء الاصطناعي
وتخطط غوغل أيضاً لتحديث سياستها بحلول منتصف نوفمبر (تشرين الثاني) والتي تشترط فيها أن تتضمن الإعلانات المتعلقة بالانتخابات الإفصاح عما إذا كانت تحتوي على "محتوى اصطناعي يصور بشكل غير صحيح أشخاصاً أو أحداثاً حقيقية أو يبدو مظهرها واقعياً".
وتحظر شركة سناب، مالكة تطبيق سناب شات، وموقع تيك توك الإعلانات السياسية، في حين أن موقع إكس، تويتر سابقاً، لم يطرح أي أدوات إعلانية تعمل بالذكاء الاصطناعي التوليدي.
وقال نيك كليج، كبير المسؤولين التنفيذيين للسياسات في شركة ميتا الشهر الماضي، إن استخدام الذكاء الاصطناعي التوليدي في الإعلانات السياسية "هو مجال من الواضح أننا نحتاج إلى تحديث قواعدنا فيه".
ونبه كليج الحكومات وشركات التكنولوجيا على حد سواء بأن تستعد لاحتمال استخدام هذه التكنولوجيا للتدخل في انتخابات الرئاسة الأمريكية المقبلة في 2024، داعياً إلى التركيز بشكل خاص على المحتوى المتعلق بالانتخابات "الذي ينتقل من منصة إلى أخرى".

المصدر: موقع 24

كلمات دلالية: التغير المناخي محاكمة ترامب أحداث السودان سلطان النيادي مانشستر سيتي غزة وإسرائيل الحرب الأوكرانية عام الاستدامة ميتا الذكاء الاصطناعي شات جي بي تي مايكروسوفت فيس بوك غوغل الاصطناعی التولیدی بالذکاء الاصطناعی

إقرأ أيضاً:

ما آثار أدوات الذكاء الاصطناعي على مستخدميها؟.. دراسة تحذر من الكسل والغباء

أظهرت دراسة حديثة أن الاعتماد المستمر على أدوات الذكاء الاصطناعي قد يساهم في تقليص القدرات العقلية لدى مستخدميها، مما يعزز الخمول العقلي ويقلل من قدرة الأفراد على التفكير النقدي.

وشملت الدراسة التي أجرتها شركة "مايكروسوفت"، مطورة "كوبايلوت أيه.آي" وهي أنظمة الذكاء الاصطناعي، أكثر من 300 شخص يعملون في وظائف معرفية، وأكدت أن هؤلاء المستخدمين يميلون إلى اختيار الطريق الأسهل، مما يؤدي إلى انخفاض الجهد العقلي لديهم.

وأوضحت الدراسة التي ستعرض في "مؤتمر جمعية آلات الحوسبة" في مدينة يوكوهاما اليابانية الشهر المقبل، أن استخدام الذكاء الاصطناعي بشكل غير صحيح يمكن أن يؤدي إلى تدهور في القدرات المعرفية التي يحتاج المستخدمون إلى الحفاظ عليها.


وبينت الدراسة أنه بينما يتجه البعض إلى الاستعانة بأدوات الذكاء الاصطناعي في مهام بسيطة، فإنهم يتخلون عن المهام الأكثر تعقيدا مثل وضع الاستراتيجيات وحل المشكلات.

وأضاف فريق الدراسة المشترك من مايكروسوفت وجامعة كارنيجي ميلون، أن الذكاء الاصطناعي التوليدي، مثل "تشات جي.بي.تي" قد حول التفكير النقدي إلى مجرد التحقق من المعلومات، ما يجعل المستخدمين يركزون على دمج الإجابات وإدارة المهام بدلا من تطوير أفكار جديدة أو التفكير العميق.


وفي دراسة منفصلة، لفت باحثون من جامعة ستانفورد إلى أن استخدام الذكاء الاصطناعي بشكل متكرر يمكن أن يضر بجودة العمل لدى الموظفين ذوي الخبرة.

وأظهرت الدراسة أن الموظفين الأكثر خبرة، رغم إنجازهم لعدد أكبر من المهام، شهدوا تراجعا في جودة أعمالهم، بينما أظهر الموظفون الأقل خبرة إنتاجية أعلى وسرعة أكبر عند الاستعانة بالأدوات الذكية.

مقالات مشابهة

  • دراسة تحذر من  تدهور القدرات المعرفية لمستخدمي الذكاء الاصطناعي
  • قطر توقع اتفاق شراكة مع شركة للذكاء الاصطناعي
  • ما آثار أدوات الذكاء الاصطناعي على مستخدميها؟.. دراسة تحذر من الكسل والغباء
  • وثائق مُسرّبة تكشف استخدام «ميتا» لمحتوى محمي بحقوق النشر في تدريب الذكاء الاصطناعي
  • خالد عليش يلجأ للذكاء الاصطناعي لاحتضان ابنته الكبرى مؤقتًا .. شاهد
  • معلمون يسلطون الضوء على تعزيز الاستفادة من تقنيات الذكاء الاصطناعي في التعليم
  • شركات صينية تحتفي بروبوت ديب سيك للذكاء الاصطناعي
  • أول مزاد مخصص لأعمال فنية مدعومة بالذكاء الاصطناعي
  • «مايكروسوفت» تطلق Muse لدعم الألعاب بالذكاء الاصطناعي
  • تهامة تك ويونيفيو العالمية تكشفان عن أحدث تقنيات المراقبة بالذكاء الاصطناعي في أكبر تجمع تقني بعدن