ميتا قد تتوقف عن تطوير أنظمة الذكاء الاصطناعي بسبب مخاطرها الكارثية
تاريخ النشر: 7th, February 2025 GMT
تعهد الرئيس التنفيذي لشركة "ميتا" مارك زوكربيرغ بجعل الذكاء الاصطناعي العام "إيه جي آي" (AGI) متاحا للعامة يوما ما، ولكن في وثيقة جديدة اقترحت ميتا أنها لن تُصدر نظام ذكاء اصطناعي متقدما للعلن في حال وجود سيناريوهات معينة قد تُشكل خطرا أو ضررا ما. بحسب تقرير نشره موقع "تيك كرانش".
ويُشاع أن الذكاء الاصطناعي العام قادر على التعلم الذاتي ويمكنه إنجاز كل المهمات التي يمكن للبشر القيام بها، على عكس الذكاء الاصطناعي التقليدي الذي يفعل ما دُرب عليه فقط، ولهذا فإن ميتا قلقة من وقوع هذه التقنية المتقدمة في أيدٍ خاطئة وعدم قدرتها على السيطرة عليها.
وكانت الوثيقة بعنوان إطار عمل الذكاء الاصطناعي المتقدم (Frontier AI Framework) حيث حددت ميتا نوعين من الأنظمة التي تعتبرها عالية الخطورة في حال طرحها وهما "أنظمة عالية الخطورة" و"أنظمة فائقة الخطورة".
وبحسب تعريف ميتا فإن كلا من الأنظمة "عالية الخطورة" و"فائقة الخطورة" تساعد على تنفيذ هجمات إلكترونية أو كيميائية أو بيولوجية، ولكن الفارق هو أن الأنظمة "فائقة الخطورة" قد تؤدي إلى نتائج كارثية لا يمكن السيطرة عليها، في المقابل قد تساعد الأنظمة "عالية الخطورة" في تنفيذ هجوم، ولكن يمكن السيطرة عليه نسبيا لأنه ليس بمستوى الفاعلية مثل الأنظمة فائقة الخطورة.
إعلانوذكرت ميتا بعض الأمثلة عن هذه الهجمات مثل اختراق نظام التشفير التام بين الطرفين كالذي تستخدمه واتساب وانتشار أسلحة بيولوجية عالية التأثير، وتقر الشركة بأن قائمة الكوارث المحتملة في الوثيقة ليست شاملة ولكنها الأكثر احتمالا في حال إطلاق نظام ذكاء اصطناعي قوي.
ومن الجدير بالذكر أن ميتا لا تُصنف مخاطر الأنظمة استنادا إلى اختبار تجريبي واحد فقط، بل تعتمد على مدخلات عديدة أجراها باحثون داخل الشركة وخارجها والذين يخضعون لمراجعة من قبل صناع قرار رفيعي المستوى.
وفي حال قررت ميتا أن نظاما ما يُعتبر "عالي الخطورة" فإنها ستقيد الوصول إلى هذا النظام داخليا ولن تطلقه حتى تتخذ تدابير مناسبة لتقليل المخاطر إلى مستويات معتدلة، ولكن إذا صُنف النظام على أنه "فائق الخطورة"، فستقوم الشركة بتنفيذ تدابير أمنية غير محددة لمنع تسريب النظام وإيقاف تطويره حتى يمكن جعله أقل خطورة.
وتدّعي ميتا أن إطار عمل الذكاء الاصطناعي المتقدم سيتطور مع تغير مشهد الذكاء الاصطناعي، وذلك ردا على الانتقادات الموجهة لنهج الشركة "المفتوح" في تطوير أنظمتها، إذ تبنت ميتا إستراتيجية تتمثل في جعل تقنية الذكاء الاصطناعي الخاصة بها متاحة للجميع وإن لم تكن مفتوحة المصدر بالمعنى الحرفي، على عكس شركات مثل "أوبن إيه آي" التي تحمي أنظمتها خلف واجهة برمجة التطبيقات "إيه بي آي" (API).
وبالنسبة لشركة ميتا فقد أثبت نهج الإصدار المفتوح أنه نعمة ونقمة في آن واحد، حيث حققت مجموعة نماذج الذكاء الاصطناعي الخاصة بالشركة والتي تُعرف باسم "لاما" (Llama) مئات الملايين من التنزيلات، ولكن يُشاع أن نماذج "لاما" استخدمها خصم واحد على الأقل من خصوم الولايات المتحدة لتطوير روبوت دردشة دفاعي وهو روبوت مصمم خصيصا لمساعدة المؤسسات في تعزيز دفاعاتها الإلكترونية.
إعلانومن جهة أخرى فإن نشر ميتا لإطار عمل الذكاء الاصطناعي المتقدم يهدف أيضا إلى مقارنة إستراتيجيتها للذكاء الاصطناعي المفتوح مع إستراتيجية شركة الذكاء الاصطناعي الصينية "ديب سيك" والتي تُعرف بأنها مفتوحة المصدر، ولكنها لا تملك ضمانات حماية كافية ويمكن توجيهها لتوليد مخرجات ضارة وخطيرة.
وكتبت ميتا في الوثيقة: "نعتقد أنه من خلال النظر في الفوائد والمخاطر الناتجة عن تطوير ونشر الذكاء الاصطناعي المتقدم، فمن الممكن تقديم هذه التكنولوجيا للمجتمع بطريقة تجمع أكبر فائدة بأقل ضرر".
المصدر: الجزيرة
كلمات دلالية: حريات الذکاء الاصطناعی المتقدم عالیة الخطورة فی حال
إقرأ أيضاً:
«سدايا» تعزز مشاركة السعوديات في مستقبل الذكاء الاصطناعي
البلاد ــ الرياض
تبنّت الهيئة السعودية للبيانات والذكاء الاصطناعي “سدايا” إستراتيجية شاملة؛ تهدف إلى تعزيز مشاركة المرأة السعودية في مجال البيانات والذكاء الاصطناعي، من خلال توفير بيئة عمل ناجحة تدعم تمكينها في قطاعات هذه التقنيات المتقدمة بمختلف تخصصاتها؛ لتسهم في تعزيز الاستدامة والابتكار، ودعم المشاريع والمبادرات الريادية، التي تنفذها “سدايا”؛ بوصفها المرجع الوطني لكل مايتعلق بالبيانات والذكاء الاصطناعي من تنظيم وتطوير وتعامل.
وأتاحت “سدايا” فرصة إشراك المرأة في اتخاذ القرار، وتمكينها بدايةً من المناصب القيادية وصولًا إلى الوظائف التقنية وسط منظومة عمل متكاملة؛ تسعى لتحقيق إستراتيجية “سدايا” الطموحة، ما مكن المرأة من إثبات كفاءتها في قطاعات عمل عدة، تتعلق بإدارة البيانات وتطوير تقنيات الذكاء الاصطناعي، وتعيين عالمات بيانات، ومهندسات ذكاء اصطناعي في مناصب إستراتيجية بالهيئة لدعم تحقيق الأهداف الوطنية لسدايا.
وفي الجانب التطويري، قدمت “سدايا” عددًا من البرامج التدريبية وورش العمل المتخصصة، التي تهدف إلى رفع كفاءة المرأة في مجال البيانات والذكاء الاصطناعي، من خلال دورات متقدمة في هذا المجال؛ بهدف إكسابهن المهارات المتطورة وفق أحدث التقنيات والأدوات في المجال، فضلًا عن تعزيز قدراتهن الابتكارية التي كان لها الأثر الفعّال في تحقيق مستهدفات الهيئة في العديد من المجالات؛ مثل : حوكمة البيانات وإدارتها، وقيادة إستراتيجية الهيئة، وتحقيق أهدافها المتمثلة في تعزيز التحول الرقمي، وتمكين استخدامات الذكاء الاصطناعي بشكل فعّال ومسؤول. وتركز “سدايا” على دعم المرأة الباحثة في مجال البيانات والذكاء الاصطناعي، من خلال إتاحة الوصول إلى قواعد بيانات ضخمة تُستخدم لتطوير حلول مبتكرة في قطاعات حيوية؛ كالصحة والطاقة والتعليم، ودعمهن في المشاركة بالمبادرات الوطنية والعالمية التي تهدف إلى تعزيز دورها في المجال التقني والابتكاري القائم على البيانات والذكاء الاصطناعي، ما يجعلها شريكًا فاعلًا في بناء مستقبل يعتمد على الابتكار.
وهيأت “سدايا” كل سبل النجاح للمرأة من خلال تحقيق التوازن بين مسؤولياتها المهنية وواجباتها الأسرية، ووفرت بنية تحتية رقمية متطورة تدعم إمكانية العمل عن بُعد، وهو ما يعزز من قدرتها على الإسهام الفعّال دون التخلي عن واجباتها الأسرية، إضافة إلى وضع سياسات تضمن بيئة عمل محفزة، تراعي احتياجات المرأة مهنيًا واجتماعيًا وصحيًا، مما يخلق مناخًا يساعد على الإبداع والإنتاجية والابتكار.
ويعكس تمكين المرأة في “سدايا” التزام المملكة بتعزيز دورها في بناء اقتصاد معرفي مستدام قائم على البيانات والذكاء الاصطناعي والتحول الرقمي، من خلال إشراك المرأة في عملية التنمية بما يسهم “سدايا” في تحقيق رؤية شاملة تسعى إلى تمكين المرأة- ليس فقط كموظفة- بل كقائدة ومبتكرة.