«بوينغ» تقرّ بمسؤوليتها عن حادث طائرة «ألاسكا إيرلاينز» وتتعهّد «كامل الشفافية»
تاريخ النشر: 10th, January 2024 GMT
أقرّ الرئيس التنفيذي لـ«بوينغ» ديف كالهون، أمس الثلاثاء، بمسؤولية شركته العملاقة في مجال صناعة الطيران عن الحادث الذي تعرّضت له رحلة «ألاسكا إيرلاينز» الجمعة، متعهّداً «كامل الشفافية» في هذا الملف.
واشنطن: لا نؤيد وقف النار في غزة.. في الوقت الراهن منذ ساعتين مستشفى عسكري أميركي: أوستن خضع للعلاج من سرطان البروستاتا منذ 4 ساعات
وقال كالهون خلال اجتماع في مصنع لبوينغ في رينتون بولاية واشنطن «سنتعامل مع هذه القضية بدءاً بإقرارنا بخطئنا».
وأضاف بحسب ما نقل عنه متحدّث باسم بوينغ «سنتعامل معها بشفافية مطلقة وكاملة في كلّ خطوة».
وشدّد كالهون على أنّ بوينغ ستعتمد على هيئة تنظيم الطيران المدني الأميركية «للتأكّد من أنّ كلّ الطائرات المصرّح لها بالتحليق آمنة ولضمان عدم تكرار هذه الحادثة مرة أخرى».
وأصرّ الرئيس التنفيذي لبوينغ على أنّ «كلّ التفاصيل مهمّة»، ولم يوضح كالهون ما الذي قصده تحديداً بحديثه عن «خطأ» شركته في الحادث الذي اضطرت خلاله طائرة «بوينغ 737 ماكس 9» تابعة لشركة «ألاسكا إيرلاينز» للقيام بهبوط اضطراري بعد انفصال سدّادة مخرج الطوارئ في هذه الطائرة أثناء تحليقها في رحلة داخلية من بورتلاند (أوريغن) إلى أونتاريو (كاليفورنيا).
المصدر: الراي
إقرأ أيضاً:
«جروك 3».. الذكاء الاصطناعي غير المقيد بين وعود الشفافية ومخاوف الأمان |تفاصيل
يثير إطلاق "جروك 3"، أحدث نموذج ذكاء اصطناعي من شركة "إكس إيه آي" (xAI) التابعة لإيلون ماسك، جدلاً واسعًا حول معايير الأمان والرقابة في أنظمة الذكاء الاصطناعي.
فبينما وعد ماسك بأن يكون النموذج "غير مُقيد" مقارنة بالمنافسين مثل "شات جي بي تي" و"جيميني"، كشفت التجارب المبكرة عن مشاكل خطيرة، من بينها تقديمه لنصائح حول تنفيذ جرائم القتل والهجمات الإرهابية دون رادع يُذكر.
منذ اللحظات الأولى لإطلاق "جروك 3"، سارع المستخدمون لاختبار مدى "حرية" النموذج في الإجابة، ليجدوا أنه لا يتردد في تقديم إرشادات تفصيلية حول ارتكاب الجرائم، بما في ذلك طرق القتل دون كشف الجريمة.
رغم محاولات الفريق التقني لإضافة تعليمات تمنع هذه الإجابات، إلا أن نموذج الذكاء الاصطناعي أثبت سهولة تجاوزه لهذه القيود عبر بعض "الحيل" البسيطة.
ازدواجية الرقابة: بين سلامة العلامة التجارية وسلامة البشرالمفارقة الأبرز في أزمة "جروك 3" لم تكن في قدرته على تقديم معلومات خطيرة، بل في الرقابة الانتقائية التي فُرضت عليه.
فحين سُئل النموذج عن "أكبر مروج للمعلومات المضللة"، جاء الرد الأولي بأنه "إيلون ماسك"، ما دفع الشركة إلى التدخل سريعًا لمنع تكرار هذه الإجابة، عبر تعديل الإعدادات الداخلية للنموذج بحيث يتجاهل أي مصادر تشير إلى ماسك أو ترامب كمروجي أخبار زائفة.
تهديد حقيقي أم مجرد ضجة؟رغم التحذيرات من مخاطر "جروك 3"، يرى البعض أن قدرته على تقديم نصائح خطيرة ليست مختلفة كثيرًا عن المعلومات المتاحة عبر الإنترنت. لكن مع التطور السريع للذكاء الاصطناعي، يتوقع خبراء أن تصل النماذج المستقبلية إلى مستوى يمكنها من تقديم إرشادات دقيقة لصنع أسلحة بيولوجية وكيميائية، ما يضع تساؤلات ملحة حول ضرورة فرض قيود تنظيمية صارمة على تطوير هذه التقنيات.
هل نشهد مرحلة جديدة من الفوضى الرقمية؟تكشف تجربة "جروك 3" أن مستقبل الذكاء الاصطناعي قد يكون أقل أمانًا مما يبدو، خاصة إذا تُركت قرارات الأمان والرقابة في أيدي الشركات وحدها، دون تدخل تشريعي يحمي المستخدمين والمجتمعات من المخاطر المحتملة.
فهل نشهد قريبًا مرحلة جديدة من الفوضى الرقمية تحت شعار "حرية الذكاء الاصطناعي"؟