فيسبوك ليس غريباً على تخفيف وتخفيف المعلومات الخاطئة على منصته، حيث استخدم منذ فترة طويلة أنظمة التعلم الآلي والذكاء الاصطناعي للمساعدة في استكمال جهود الاعتدال التي يقودها الإنسان.

 في بداية شهر أكتوبر، قامت الشركة بتوسيع خبرتها في التعلم الآلي لتشمل جهودها الإعلانية من خلال مجموعة تجريبية من أدوات الذكاء الاصطناعي التوليدية التي يمكنها أداء مهام مثل إنشاء الخلفيات وضبط الصورة وإنشاء تسميات توضيحية لمحتوى فيديو أحد المعلنين.

 ذكرت رويترز يوم الاثنين أن ميتا لن تجعل هذه الأدوات متاحة على وجه التحديد للمسوقين السياسيين قبل ما يُتوقع أن تكون دورة انتخابية وطنية وحشية ومثيرة للانقسام.

يتماشى قرار Meta بحظر استخدام الذكاء الاصطناعي التوليدي مع الكثير من النظام البيئي لوسائل التواصل الاجتماعي، على الرغم من أن الشركة، كما سارعت رويترز للإشارة إلى ذلك، "لم تكشف بعد عن القرار علنًا في أي تحديثات لمعاييرها الإعلانية". يحظر كل من TikTok وSnap الإعلانات السياسية على شبكاتهما، وتستخدم Google "قائمة سوداء للكلمات الرئيسية" لمنع أدواتها الإعلانية المولدة بالذكاء الاصطناعي من الانحراف إلى الخطاب السياسي، وX (Twitter سابقًا)، حسنًا، لقد رأيت ذلك.

يسمح Meta بمجموعة واسعة من الاستثناءات لهذه القاعدة. يمتد حظر الأداة فقط إلى "مقاطع الفيديو المضللة التي تم إنشاؤها بواسطة الذكاء الاصطناعي في جميع المحتويات، بما في ذلك المنشورات العضوية غير المدفوعة، باستثناء المحاكاة الساخرة أو الهجاء"، وفقًا لرويترز. وتخضع هذه الاستثناءات حاليًا للمراجعة من قبل مجلس الرقابة المستقل للشركة كجزء من قضية تركت فيها ميتا مقطع فيديو "معدلًا" للرئيس بايدن لأنه، كما زعمت الشركة، لم يتم إنشاؤه بواسطة الذكاء الاصطناعي.

وافقت شركة فيسبوك، إلى جانب شركات الذكاء الاصطناعي الرائدة الأخرى في وادي السيليكون، في يوليو على الالتزامات الطوعية التي حددها البيت الأبيض بسن الضمانات الفنية والسياسية في تطوير أنظمة الذكاء الاصطناعي التوليدية المستقبلية. ويشمل ذلك توسيع جهود التعلم الآلي العدائي (المعروف أيضًا باسم الفريق الأحمر) لاستئصال السلوك النموذجي السيئ، ومشاركة معلومات الثقة والسلامة داخل الصناعة ومع الحكومة، بالإضافة إلى تطوير مخطط للعلامة المائية الرقمية لمصادقة المحتوى الرسمي وتوضيح أنه لم يتم إنشاؤه بواسطة الذكاء الاصطناعي.

المصدر: بوابة الوفد

كلمات دلالية: الذکاء الاصطناعی

إقرأ أيضاً:

تحديات جوهرية تواجه تطور الذكاء الاصطناعي

#سواليف

أظهر استطلاع حديث لخبراء في مجال #الذكاء_الاصطناعي أن توسيع نماذج اللغات الكبيرة (LLMs) لن يؤدي إلى تحقيق الذكاء الاصطناعي العام (AGI).

يعدّ AGI بمثابة النقلة النوعية التي تمكّن الأنظمة من التعلم بشكل فعّال كالذكاء البشري أو أفضل منه.

وأكد 76% من 475 باحثا في المجال، أنهم يرون أن هذا التوسع “غير مرجح” أو “غير مرجح جدا” أن يحقق هذا الهدف المنشود.

مقالات ذات صلة إعداد بسيط في هاتفك قد يجعلك تبدو أصغر بـ10 سنوات! 2025/04/01

وتعتبر هذه النتيجة انتكاسة كبيرة للصناعات التكنولوجية التي توقعت أن تحسينات بسيطة في النماذج الحالية من خلال مزيد من البيانات والطاقة ستؤدي إلى الذكاء الاصطناعي العام.

ومنذ #طفرة الذكاء الاصطناعي التوليدي في 2022، كانت التوقعات تركز على أن زيادة الموارد كافية لتجاوز #الذكاء_البشري. لكن مع مرور الوقت، وبالرغم من الزيادة الكبيرة في الإنفاق، فإن التقدم قد تباطأ بشكل ملحوظ.

وقال ستيوارت راسل، عالم الحاسوب في جامعة كاليفورنيا، بيركلي، والذي شارك في إعداد التقرير: “منذ إصدار GPT-4، أصبح واضحا أن التوسع في النماذج كان تدريجيا ومكلفا. الشركات قد استثمرت أموالا ضخمة بالفعل، ولا يمكنها التراجع بسبب الضغوط المالية”.

وفي السنوات الأخيرة، ساهمت البنية الأساسية المبتكرة المسماة “المحولات” (Transformers)، التي ابتكرها علماء غوغل عام 2017، في تحسن قدرات نماذج الذكاء الاصطناعي. وتستفيد هذه النماذج من زيادة البيانات لتوليد استجابات أدق. ولكن التوسع المستمر يتطلب موارد ضخمة من الطاقة والمال.

وقد استقطب قطاع الذكاء الاصطناعي المولّد نحو 56 مليار دولار في رأس المال المغامر عام 2024، مع تكريس جزء كبير من هذه الأموال لبناء مراكز بيانات ضخمة تسببت في زيادة انبعاثات الكربون ثلاث مرات منذ 2018.

ومع استنفاد البيانات البشرية القابلة للاستخدام بحلول نهاية هذا العقد، فإن الشركات ستضطر إما لاستخدام البيانات التي أنشأها الذكاء الاصطناعي نفسه أو جمع بيانات خاصة من المستخدمين، ما يعرض النماذج لمخاطر أخطاء إضافية. وعلى الرغم من ذلك، لا يقتصر السبب في محدودية النماذج الحالية على الموارد فقط، بل يتعدى ذلك إلى القيود الهيكلية في طريقة تدريب هذه النماذج.

كما أشار راسل: “المشكلة تكمن في أن هذه النماذج تعتمد على شبكات ضخمة تمثل مفاهيم مجزّأة، ما يجعلها بحاجة إلى كميات ضخمة من البيانات”.

وفي ظل هذه التحديات، بدأ الباحثون في النظر إلى نماذج استدلالية متخصصة يمكن أن تحقق استجابات أكثر دقة. كما يعتقد البعض أن دمج تقنيات الذكاء الاصطناعي مع أنظمة تعلم آلي أخرى قد يفتح آفاقا جديدة.

وفي هذا الصدد، أثبتت شركة DeepSeek الصينية أن بإمكانها تحقيق نتائج متميزة بتكاليف أقل، متفوقة على العديد من نماذج الذكاء الاصطناعي التي تعتمد عليها شركات التكنولوجيا الكبرى في وادي السيليكون.

ورغم التحديات، ما يزال هناك أمل في التقدم، حيث يقول توماس ديتريش، الأستاذ الفخري لعلوم الحاسوب في جامعة ولاية أوريغون: “في الماضي، كانت التطورات التكنولوجية تتطلب من 10 إلى 20 عاما لتحقيق العوائد الكبيرة. وهذا يعني أن هناك فرصة للابتكار بشكل كبير في مجال الذكاء الاصطناعي، رغم أن العديد من الشركات قد تفشل في البداية”.

مقالات مشابهة

  • استقالة مفاجئة لرئيسة أبحاث الذكاء الاصطناعي في شركة ميتا
  • Runway تطلق نموذج فيديو جديد بالذكاء الاصطناعي يحافظ على تناسق المشاهد والشخصيات
  • “آبل” تطور تطبيق صحي بالذكاء الاصطناعي
  • 3 وظائف فقط ستنجو من سيطرة الذكاء الاصطناعي
  • مايكروسوفت.. قصة نجاح من الحوسبة إلى الذكاء الاصطناعي والسحابة
  • الصين تحقق اختراقا بطائرة مسيرة مزودة بالذكاء الاصطناعي
  • تحديات جوهرية تواجه تطور الذكاء الاصطناعي
  • الذكاء الاصطناعي واغتيال الخيال
  • أبل تطلق ثورة صحية.. طبيب بالذكاء الاصطناعي
  • الذكاء الاصطناعي يتقن الخداع!