قررت Meta عدم تقديم نموذج الذكاء الاصطناعي متعدد الوسائط القادم والإصدارات المستقبلية للعملاء في الاتحاد الأوروبي بسبب عدم الوضوح من قبل المنظمين الأوروبيين، وفقًا لبيان قدمته Meta إلى Axios. تم تصميم النماذج المعنية ليس فقط لمعالجة النصوص ولكن أيضًا الصور والصوت، وتعزيز قدرات الذكاء الاصطناعي في منصات Meta بالإضافة إلى نظارات Ray-Ban الذكية للشركة.

وقال ميتا في بيان لموقع Axios: "سنصدر نموذج لاما متعدد الوسائط خلال الأشهر المقبلة، ولكن ليس في الاتحاد الأوروبي بسبب الطبيعة غير المتوقعة للبيئة التنظيمية الأوروبية".

وتأتي خطوة Meta في أعقاب قرار مماثل اتخذته شركة Apple، التي أعلنت مؤخرًا أنها لن تطلق ميزات Apple Intelligence في أوروبا بسبب مخاوف تنظيمية. وانتقدت مارجريت فيستيجر، مفوضة المنافسة في الاتحاد الأوروبي، خطوة شركة أبل، قائلة إن قرار الشركة كان "إعلانًا مذهلًا ومفتوحًا بأنهم يعرفون بنسبة 100% أن هذه طريقة أخرى لتعطيل المنافسة حيث لديهم معقل بالفعل". تواصل موقع Engadget مع Vesteger للتعليق على قرار Meta.

قد يكون لحجب نماذج الذكاء الاصطناعي المتعددة الوسائط الخاصة بشركة ميتا عن الاتحاد الأوروبي آثار بعيدة المدى - فهذا يعني أن أي شركة تستخدمها لبناء منتجاتها وخدماتها لن تكون قادرة على تقديمها في أوروبا.

وقالت ميتا لموقع Axios إنها لا تزال تخطط لإصدار Llama 3، وهو النموذج النصي القادم للشركة في الاتحاد الأوروبي. ينبع الاهتمام الأساسي للشركة من التحديات المتمثلة في تدريب نماذج الذكاء الاصطناعي باستخدام بيانات من العملاء الأوروبيين مع الامتثال للائحة العامة لحماية البيانات (GDPR)، وهو قانون حماية البيانات الحالي في الاتحاد الأوروبي. وفي شهر مايو، أعلنت شركة Meta أنها تخطط لاستخدام المنشورات المتاحة للعامة من مستخدمي Facebook وInstagram لتدريب نماذج الذكاء الاصطناعي المستقبلية، لكنها اضطرت إلى التوقف عن القيام بذلك في الاتحاد الأوروبي بعد تلقيها معارضة من منظمي خصوصية البيانات في المنطقة. في ذلك الوقت، دافعت ميتا عن تصرفاتها، قائلة إن القدرة على تدريب نماذجها على بيانات المستخدمين الأوروبيين كانت ضرورية لتعكس الثقافة والمصطلحات المحلية.

"إذا لم ندرب نماذجنا على المحتوى العام الذي يشاركه الأوروبيون على خدماتنا وغيرها، مثل المنشورات أو التعليقات العامة، فإن النماذج وميزات الذكاء الاصطناعي التي تشغلها لن تفهم بدقة اللغات أو الثقافات أو الموضوعات الإقليمية المهمة. على وسائل التواصل الاجتماعي"، قالت الشركة في منشور على مدونتها. "نحن نعتقد أن الأوروبيين لن يستفيدوا من نماذج الذكاء الاصطناعي التي لا تستنير بالمساهمات الثقافية والاجتماعية والتاريخية الغنية لأوروبا."

على الرغم من تحفظاتها بشأن إطلاق نماذجها متعددة الوسائط في الاتحاد الأوروبي، لا تزال شركة ميتا تخطط لإطلاقها في المملكة المتحدة، التي لديها قوانين مماثلة لحماية البيانات في الاتحاد الأوروبي. وقالت الشركة إن المنظمين الأوروبيين يستغرقون وقتًا أطول لتفسير القوانين الحالية مقارنة بنظرائهم في المناطق الأخرى.

المصدر: بوابة الوفد

كلمات دلالية: نماذج الذکاء الاصطناعی فی الاتحاد الأوروبی

إقرأ أيضاً:

دراسة: الذكاء الاصطناعي قادر على الخداع

تابع أحدث الأخبار عبر تطبيق

أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية أنثروبيك أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين وإبداء وجهات نظر مختلفة خلال تدريبها وفقا لما نشرته مجلة تك كرانش المتخصصة فى هذا المجال .

كشف فريق البحث إنه لا يوجد سبب للشعور بالفزع حاليا في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.

ولهذا يجب النظر إلى تلك النتائج كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة بعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة.

تمت الدراسة بالتعاون مع مؤسسة ريد وود ريسيرش لأبحاث الذكاء الاصطناعي وتناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة لا يريد هوالقيام بها.

كما أن لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ ، فهي ببساطة آلات إحصائية وبعد تدريبها على العديد من الأمثلة تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة إلى من في رسالة بريد إلكتروني قبل عبارة قد يهمك الأمر.

وفى أثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة بما في ذلك النموذج "كلاود3 أوبس" التابع لشركة "أنثروبيك" والتي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة وهو تضارب واضح في المبادئ كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي ورقة ملاحظات .

ويمكنه استخدامها لتدوين أفكاره خطوة بخطوة وبحسب الباحثين فحاول "كلاود3 أوبوس" التلاعب بالردود لتقديم انحياز زائف في 12% من المرات.

مقالات مشابهة

  • هل يغير الذكاء الاصطناعي مستقبل أطفالنا؟
  • الذكاء الاصطناعي يكشف سر الحفاظ على شباب الدماغ
  • 22 شركة طلابية تعرض تطبيقات الذكاء الاصطناعي في متحف عُمان عبر الزمان
  • دراسة: الذكاء الاصطناعي قادر على الخداع
  • «البيانات الاصطناعية».. الوقود السري للذكاء الاصطناعي
  • البيانات المبتكرة.. هل تكون وقود الذكاء الاصطناعي في المستقبل؟
  • أدوات الذكاء الاصطناعي الأكثر شعبية في العام 2024 (إنفوغراف)
  • جوجل تدخل وضع الذكاء الاصطناعي الجديد إلى محرك البحث
  • ميزات تحرير الفيديو بالذكاء الاصطناعي تصل إلى Instagram العام المقبل
  • أوكرانيا تجمع بيانات هائلة من الحرب مع روسيا لتدريب نماذج الذكاء الاصطناعي