تابع أحدث الأخبار عبر تطبيق

في تقرير حديث نشرته صحيفة نيويورك تايمز، تم الكشف عن تعرض شركة OpenAI لهجوم اختراق في مطلع عام 2023، حيث تمكن المخترق من الوصول إلى أنظمة المراسلة الداخلية وسرقة معلومات حساسة حول تقنيات الذكاء الاصطناعي الخاصة بالشركة. وأكدت الصحيفة أن OpenAI لم تقم بإبلاغ عملائها أو الجهات المعنية بهذا الاختراق، مكتفية بإعلام موظفيها فقط.

تفاصيل الاختراق

استطاع الهاكر الوصول إلى محادثات دارت في منتدى إلكتروني خاص بموظفي OpenAI، حيث كانت تتم مناقشات حول أحدث التقنيات التي تطورها الشركة. وعلى الرغم من ذلك، لم يتمكن المخترق من اختراق الأنظمة التي تستضيف نماذج GPT وتدربها، وهي الأنظمة الأساسية التي تشتهر بها OpenAI.

تحذيرات سابقة ومخاوف أمنية

نقلت الصحيفة عن مصدرين داخل الشركة أن بعض موظفي OpenAI كانوا قد حذروا سابقًا من إمكانية استغلال دول مثل الصين لمثل هذه الهجمات لسرقة تقنيات الذكاء الاصطناعي، مما قد يشكل تهديدًا للأمن القومي الأمريكي.

ردود فعل داخلية

أثار الحادث تساؤلات بين الموظفين حول جدية الشركة في التعامل مع مسألة الأمن الرقمي. وذكرت تقارير أخرى وجود انقسامات داخل الشركة بشأن المخاطر المحتملة للذكاء الاصطناعي. وفي هذا السياق، كتب ليوبولد آشينبرينر، مدير البرامج التقنية السابق في OpenAI، مذكرة إلى مجلس إدارة الشركة يتهمهم فيها بعدم بذل جهد كافٍ لمنع سرقة التقنيات السرية من "قوى أجنبية معادية".

تداعيات وتسريبات

تم فصل آشينبرينر لاحقًا بدعوى تسريب معلومات سرية، إلا أنه يزعم أن هذا الفصل كان بدافع سياسي. وتأتي هذه التسريبات لتضيف إلى المشاكل التي تواجه شركة OpenAI مؤخرًا، إذ واجه الرئيس التنفيذي للشركة، سام ألتمان، صراعًا مع مجلس الإدارة السابق، حيث أقاله المجلس ثم عاد إلى منصبه لاحقًا.

استقالات وخلافات

شهدت الشركة حديثًا استقالة العديد من الباحثين في مجال سلامة الذكاء الاصطناعي بسبب خلافات حول "التوافق الفائق" (Superalignment)، وهو مفهوم يهدف إلى إيجاد طرق لسيطرة البشر على الذكاء الاصطناعي الفائق.

 

تواجه OpenAI الآن تحديات كبيرة تتعلق بالأمن الرقمي واحتواء التسريبات، بالإضافة إلى ضرورة تعزيز الثقة بين الموظفين والإدارة. ومع استمرار التطور في مجال الذكاء الاصطناعي، تظل الشركة تحت ضغط كبير لضمان حماية تقنياتها والحفاظ على سمعتها في السوق العالمي.

 

المصدر: البوابة نيوز

كلمات دلالية: نيويورك تايمز الذكاء الاصطناعي الذکاء الاصطناعی

إقرأ أيضاً:

من يُلام في خطأ طبي يرتكبه الذكاء الاصطناعي؟

تُبشّر تقنيات الذكاء الاصطناعي المساعد بآفاقٍ واعدة لإحداث نقلة نوعية في الرعاية الصحية، من خلال مساعدة الأطباء في تشخيص المرضى وإدارتهم وعلاجهم. ومع ذلك، فإنّ التوجه الحالي لتطبيق الذكاء الاصطناعي المساعد قد يُفاقم التحديات المتعلقة بمنع الأخطاء وإرهاق الأطباء، بحسب موجز جديد أعده باحثون في جامعتي جون هوبكنز وتكساس.

ويُوضّح الموجز أنّ هناك توقعات متزايدة من الأطباء بالاعتماد على الذكاء الاصطناعي للحدّ من الأخطاء الطبية. 

ومع ذلك، لم تُوضَع بعد قوانين ولوائح مناسبة لدعم الأطباء في اتخاذ قراراتهم المُوجّهة بالذكاء الاصطناعي، على الرغم من التبني المُكثّف لهذه التقنيات في مؤسسات الرعاية الصحية.

المسؤولية الطبية

ووفق "مديكال إكسبريس"، يتوقع الباحثون أن المسؤولية الطبية ستعتمد على من يعتبره المجتمع مُخطئاً عند فشل التقنية أو ارتكابها خطأً، ما يُخضع الأطباء لتوقعاتٍ غير واقعية بمعرفة متى يجب تجاوز الذكاء الاصطناعي أو الثقة به. 

ويُحذّر الباحثون من أنّ مثل هذا التوقع قد يزيد من خطر الإرهاق، وحتى الأخطاء بين الأطباء.

تفسير التقنيات

وقالت شيفالي باتيل، الأستاذة المشاركة من جامعة تكساس: "كان الهدف من الذكاء الاصطناعي تخفيف العبء، ولكنه بدلاً من ذلك يُلقي بالمسؤولية على عاتق الأطباء، مُجبراً إياهم على تفسير تقنيات لا يستطيع حتى مُبتكروها شرحها بالكامل". 

وأضافت: "هذا التوقع غير الواقعي يُولّد تردداً ويُشكّل تهديداً مباشراً لرعاية المرضى".

ويقترح الموجز الجديد استراتيجياتٍ لمؤسسات الرعاية الصحية لدعم الأطباء من خلال تحويل التركيز من الأداء الفردي إلى الدعم والتعلم التنظيمي، ما قد يُخفف الضغط على الأطباء ويُعزز نهجاً أكثر تعاوناً لدمج الذكاء الاصطناعي.

وقال كريستوفر مايرز، الباحث المشارك: "إن توقع أن يفهم الأطباء الذكاء الاصطناعي ويطبقونه بشكل مثالي عند اتخاذ القرارات السريرية يُشبه توقع أن يُصمّم الطيارون طائراتهم الخاصة أيضاً أثناء تحليقهم بها". 

وأضاف: "لضمان تمكين الذكاء الاصطناعي للأطباء بدلاً من إرهاقهم، يتعين على منظمات الرعاية الصحية تطوير أنظمة دعم تساعد الأطباء على تحديد متى وكيف يستخدمون الذكاء الاصطناعي حتى لا يضطروا إلى التشكيك في الأدوات التي يستخدمونها لاتخاذ القرارات الرئيسية".

مقالات مشابهة

  • 5 مخاطر تسببها تقنيات الذكاء الاصطناعي.. احذر
  • ديب سيك تعزز منافستها مع OpenAI بتحديث نموذجها للذكاء الاصطناعي
  • بعد تسريب معلومات حساسة .. زلزال في البيت الأبيض
  • من يُلام في خطأ طبي يرتكبه الذكاء الاصطناعي؟
  • شركات التكنولوجيا الأمريكية تحذر من تفوق الصين في الذكاء الاصطناعي
  • Gmail يطور ميزة البحث .. الذكاء الاصطناعي يحدد ما تحتاجه أولا
  • في عصر الذكاء «الذكاء الاصطناعي».. هل يوجد «كلمات مرور» آمنة!
  • البنتاغون يفتح تحقيقا حول تسريب معلومات حساسة
  • أول صحيفة مطبوعة في العالم يحررها الذكاء الاصطناعي بالكامل
  • صدور أول صحيفة مطبوعة في العالم يحررها الذكاء الاصطناعي بالكامل