تحالف بين Meta وIBM لمواجهة اللاعبين الكبار في الذكاء الاصطناعي
تاريخ النشر: 6th, December 2023 GMT
يستمر تطوير الذكاء الاصطناعي والمخاوف بشأن سلامته في النمو بوتيرة سريعة مع القليل من التنظيم. ويأتي أحدث الحلول القائمة على الصناعة لهذا الأمر بفضل شركتي IBM وMeta، اللتين أعلنتا عن إنشاء تحالف الذكاء الاصطناعي. وتتركز مهمتها على "تعزيز مجتمع مفتوح وتمكين المطورين والباحثين من تسريع الابتكار المسؤول في الذكاء الاصطناعي مع ضمان الدقة العلمية والثقة والسلامة والأمن والتنوع والقدرة التنافسية الاقتصادية".
يعد المصدر المفتوح أحد الركائز الأساسية لتحالف الذكاء الاصطناعي. وقال نيك كليج، رئيس الشؤون العالمية في ميتا، في بيان: "نعتقد أنه من الأفضل أن يتم تطوير الذكاء الاصطناعي بشكل علني - حيث يمكن لعدد أكبر من الأشخاص الوصول إلى الفوائد، وبناء منتجات مبتكرة والعمل على السلامة". "يجمع تحالف الذكاء الاصطناعي بين الباحثين والمطورين والشركات لتبادل الأدوات والمعرفة التي يمكن أن تساعدنا جميعًا على تحقيق التقدم سواء تمت مشاركة النماذج بشكل مفتوح أم لا. ونحن نتطلع إلى العمل مع الشركاء لتطوير أحدث ما توصلت إليه التكنولوجيا." في الذكاء الاصطناعي ومساعدة الجميع على البناء بمسؤولية."
ذكر تحالف الذكاء الاصطناعي في إعلانه أنه "سيبدأ أو يعزز" أي مشاريع ذات أهداف محددة، مثل تطوير معايير لضمان الإنشاء المسؤول لأنظمة الذكاء الاصطناعي. يجب أن تتضمن هذه الخطوة إنشاء قائمة بالأدوات التي تم فحصها ودعوة المطورين لاستخدامها.
ومن بين المبادرات الأخرى، تخطط أيضًا للتركيز على السلامة والشفافية، بما في ذلك إنشاء موارد تعليمية تُطلع الجمهور وصانعي السياسات على الجوانب العديدة للذكاء الاصطناعي أو إطلاق مبادرات وفعاليات تسلط الضوء على طرق تطوير الذكاء الاصطناعي بأمان.
وتنضم إلى IBM وMeta أكثر من 50 منظمة وهيئة تعليمية في جميع أنحاء العالم، مثل Intel وNASA وCleveland Clinic وجامعة ييل. والجدير بالذكر أن OpenAI، منشئ ChatGPT، ليس أحد الأعضاء المؤسسين.
المصدر: بوابة الوفد
كلمات دلالية: تحالف الذکاء الاصطناعی
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي قادر على الخداع
تابع أحدث الأخبار عبر تطبيق
أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية أنثروبيك أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين وإبداء وجهات نظر مختلفة خلال تدريبها وفقا لما نشرته مجلة تك كرانش المتخصصة فى هذا المجال .
كشف فريق البحث إنه لا يوجد سبب للشعور بالفزع حاليا في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
ولهذا يجب النظر إلى تلك النتائج كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة بعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة.
تمت الدراسة بالتعاون مع مؤسسة ريد وود ريسيرش لأبحاث الذكاء الاصطناعي وتناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة لا يريد هوالقيام بها.
كما أن لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ ، فهي ببساطة آلات إحصائية وبعد تدريبها على العديد من الأمثلة تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة إلى من في رسالة بريد إلكتروني قبل عبارة قد يهمك الأمر.
وفى أثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة بما في ذلك النموذج "كلاود3 أوبس" التابع لشركة "أنثروبيك" والتي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة وهو تضارب واضح في المبادئ كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي ورقة ملاحظات .
ويمكنه استخدامها لتدوين أفكاره خطوة بخطوة وبحسب الباحثين فحاول "كلاود3 أوبوس" التلاعب بالردود لتقديم انحياز زائف في 12% من المرات.