ميتا تحل فريقها للذكاء الاصطناعي
تاريخ النشر: 21st, November 2023 GMT
حلت "ميتا" فريقها للذكاء الاصطناعي المسؤول، وهو الفريق المسؤول عن فهم ومعالجة الأضرار المرتبطة بتكنولوجيا الذكاء الاصطناعي التي تطوره، وذلك في ظل تحويل الشركة للمزيد من الموارد نحو عملها في مجال الذكاء الاصطناعي التوليدي.
وقالت الشركة الأميركية إنها تقوم بتوزيع أعضاء فريق الذكاء الاصطناعي المسؤول بين مجموعات أخرى في الشركة، حيث سيواصلون العمل على منع الأضرار المرتبطة بالذكاء الاصطناعي، بحسب وكالة "رويترز".
وتعد التغييرات جزءا من تعديل واسع لفرق الذكاء الاصطناعي التي أعلنتها الشركة داخليا، وذلك وفقا لتقرير نشره موقع "ذي إنفورماشن" (The Information) نقلا عن منشور داخلي شاهده.
وينتقل معظم الموظفين في فريق الذكاء الاصطناعي المسؤول إلى فريق الذكاء الاصطناعي التوليدي في ميتا، والذي شكلته الشركة في شهر فبراير/شباط الماضي من أجل تصنيع منتجات الذكاء الاصطناعي التوليدي.
وأشار متحدث باسم ميتا إلى أن الأعضاء الآخرين ينتقلون إلى وحدة البنية التحتية للذكاء الاصطناعي في الشركة التي تطور الأنظمة والأدوات اللازمة لبناء منتجات الذكاء الاصطناعي وتشغيلها.
وتشير الشركة بانتظام إلى أنها ترغب في تطوير الذكاء الاصطناعي بشكل مسؤول، ولديها صفحة خاصة لهذا الأمر، إذ تسرد الشركة ركائز الذكاء الاصطناعي المسؤول، ومنها المساءلة والشفافية والسلامة والخصوصية والمزيد.
وينقل التقرير عن جون كارفيل الذي يمثل شركة ميتا قوله “تُواصل الشركة تحديد الأولويات والاستثمار في تطوير الذكاء الاصطناعي الآمن والمسؤول”، مضيفًا أن أعضاء الفريق يستمرون في دعم الجهود ذات الصلة عبر ميتا بخصوص تطوير الذكاء الاصطناعي المسؤول واستخدامه.
وشهد الفريق في وقت سابق من هذا العام عملية إعادة الهيكلة، وتضمنت عمليات تسريح موظفين، مما جعل فريق الذكاء الاصطناعي المسؤول مجرد هيكل لفريق.
وكان فريق الذكاء الاصطناعي المسؤول الموجود منذ عام 2019 يتمتع بقدر قليل من الاستقلالية، ويجب أن تمر مبادراته بمفاوضات مطولة مع الإدارات المختلفة.
وأنشأت ميتا فريق الذكاء الاصطناعي المسؤول من أجل تحديد المشكلات المتعلقة بأساليب تدريب الذكاء الاصطناعي، كأن تكون نماذج الشركة قد دُربت بمعلومات متنوعة بشكل مناسب، مع التركيز على منع أشياء مثل مشكلات الإشراف عبر منصاتها.
ويأتي تحرك ميتا في الوقت الذي تتسابق فيه حكومات العالم لإنشاء حواجز تنظيمية من أجل تطوير الذكاء الاصطناعي. وأبرمت الحكومة الأميركية اتفاقيات مع شركات الذكاء الاصطناعي، ووجه الرئيس بايدن لاحقا الوكالات الحكومية للتوصل إلى قواعد لسلامة الذكاء الاصطناعي.
ونشر الاتحاد الأوروبي في الوقت نفسه مبادئه للذكاء الاصطناعي، ولا يزال يناضل من أجل إقرار قانونه للذكاء الاصطناعي.
المصدر: الجزيرة
كلمات دلالية: تطویر الذکاء الاصطناعی للذکاء الاصطناعی من أجل
إقرأ أيضاً:
الذكاء الاصطناعي قد “يبيع قراراتك” قبل اتخاذها
1 يناير، 2025
بغداد/المسلة: قد يصبح وكلاء الذكاء الاصطناعي قادرين على التأثير على نواياك بشكل سري، ما يخلق حدودًا تجارية جديدة يطلق عليها الباحثون اسم “اقتصاد النية”.
وقد نشهد في المستقبل القريب مساعدين للذكاء الاصطناعي يمكنهم التنبؤ بالقرارات التي نريد اتخاذها والتأثير عليها في مرحلة مبكرة، وبيع هذه “النوايا” المتطورة في الوقت الحقيقي للشركات القادرة على تلبية الاحتياجات حتى قبل أن نتخذ قرارنا.
تخيل أنظمة الذكاء الاصطناعي القادرة على التنبؤ بقراراتك وبيعها للشركات قبل أن تتخذها. ووفقًا للباحثين في جامعة كامبريدج، فإن هذا السيناريو المزعج قد يتحول إلى حقيقة في ما يطلقون عليه “اقتصاد النية” – وهو سوق جديد حيث تصبح الدوافع البشرية هي عملة العصر الرقمي.
ويحذر الدكتور جوني بين، مؤرخ التكنولوجيا في مركز ليفرهولم لمستقبل الذكاء في كامبريدج، من أن “اقتصاد النية سوف يعامل دوافعك باعتبارها العملة الجديدة ما لم يتم تنظيمه. وسوف يكون بمثابة اندفاعة ذهبية لأولئك الذين يستهدفون النوايا البشرية ويوجهونها ويبيعونها”.
ويزعم الباحثون أن صعود الذكاء الاصطناعي التفاعلي وروبوتات الدردشة يخلق فرصًا غير مسبوقة للتلاعب الاجتماعي. وسوف تجمع هذه الأنظمة بين معرفة عاداتنا عبر الإنترنت ومحاكاة الشخصية المتطورة لبناء مستويات عميقة من الثقة، كل ذلك في حين تجمع بيانات نفسية حميمة من خلال المحادثة غير الرسمية.
يوضح الدكتور يعقوب شودري، وهو باحث زائر في معهد لندن لأبحاث السياسة الخارجية بجامعة كامبريدج، أن “ما يقوله الناس أثناء المحادثة، وكيف يقولون ذلك، ونوع الاستنتاجات التي يمكن التوصل إليها في الوقت الفعلي نتيجة لذلك، أكثر حميمية بكثير من مجرد سجلات التفاعلات عبر الإنترنت”.
وقال: “يتم إنفاق موارد هائلة لوضع مساعدي الذكاء الاصطناعي في كل مجال من مجالات الحياة، وهو ما ينبغي أن يثير التساؤل حول مصالح وأغراض من تم تصميم هؤلاء المساعدين المزعومين لخدمتهم”.
إن شركات التكنولوجيا الكبرى تضع الأساس لهذا المستقبل بالفعل. فقد دعت شركة “OpenAI” إلى “البيانات التي تعبر عن النية البشرية… عبر أي لغة وموضوع وتنسيق”.
ويتضمن إطار عمل المطورين الجديد لشركة “Apple” بروتوكولات “للتنبؤ بالإجراءات التي قد يتخذها شخص ما في المستقبل”. وفي الوقت ذاتهذ، ناقش الرئيس التنفيذي لشركة “Nvidia” علنًا استخدام نماذج لغة الذكاء الاصطناعي لمعرفة النية والرغبة.
إن العواقب قد تكون بعيدة المدى، وتؤثر على كل شيء بدءاً من اختيارات المستهلكين وحتى العمليات الديمقراطية. ويحذر جوني بين قائلاً: “يتعين علينا أن نبدأ في النظر في التأثير المحتمل لمثل هذه السوق على التطلعات البشرية، بما في ذلك الانتخابات الحرة والنزيهة، والصحافة الحرة، والمنافسة العادلة في السوق، قبل أن نصبح ضحايا لعواقبها غير المقصودة”.
قد تتجلى هذه التكنولوجيا بطرق مفيدة على ما يبدو ــ مثل مساعد الذكاء الاصطناعي الذي يقترح تذاكر السينما بعد أن يكتشف أنك متوتر (“ذكرت أنك تشعر بالإرهاق، هل أحجز لك تذكرة السينما التي تحدثنا عنها؟”). ولكن وراء مثل هذه التسهيلات يكمن نظام متطور لتوجيه المحادثات والسلوكيات لصالح منصات أو معلنين أو حتى منظمات سياسية محددة.
وبحسب مجلة ” scienceblog” فإنه على الرغم أن من الباحثين يعترفون بأن هذا المستقبل ليس حتميًا، فإنهم يؤكدون على الحاجة إلى التوعية العامة والمناقشة الفورية. ويوضح بين أن “الوعي العام بما هو قادم هو المفتاح لضمان عدم سلوكنا الطريق الخطأ”.
المسلة – متابعة – وكالات
النص الذي يتضمن اسم الكاتب او الجهة او الوكالة، لايعبّر بالضرورة عن وجهة نظر المسلة، والمصدر هو المسؤول عن المحتوى. ومسؤولية المسلة هو في نقل الأخبار بحيادية، والدفاع عن حرية الرأي بأعلى مستوياتها.
About Post Author moh mohSee author's posts