مخاطر أمنية.. ميكروسوفت تمنع موظفيها من استخدام ChatGPT
تاريخ النشر: 13th, November 2023 GMT
حظرت ميكروسوفت Microsoft مؤقتًا وصول الموظفين إلى ChatGPT من OpenAI بسبب المخاوف الأمنية.
وتم الإبلاغ عن هذه الخطوة في البداية من قبل CNBC، وقد تسببت في تقييد قصير على الأجهزة المؤسسية، ومنعتها من الوصول إلى ChatGPT وغيرها من خدمات الذكاء الاصطناعي مثل Midjourney و Replika و Canva.
إدارة تداعيات الثغرات الأمنية في ChatGPT
استشهدت Microsoft بـ "مخاوف الأمن والبيانات" كسبب وراء الحظر، مؤكدة أن ChatGPT هي خدمة خارجية تابعة لجهة خارجية، وحثت على الحذر بشأن مخاطر الخصوصية والأمان.
ومع ذلك، كان الحظر قصير الأمد، واستعادت Microsoft الوصول بسرعة، وعزته إلى خطأ أثناء اختبار أنظمة التحكم للنماذج اللغوية الكبيرة.
أثارت هذه التطورات الدهشة حيث استثمرت Microsoft مليارات الدولارات في OpenAI ولديها شراكة وثيقة مع الشركة.
دمجت Microsoft نماذج AI من OpenAI في منتجاتها، مثل Bing Chat و Bing Image Creator.
اكتسبت ChatGPT شعبية مع أكثر من 100 مليون مستخدم، لكن استخدامها واجه تدقيقًا بسبب المخاوف بشأن مشاركة المعلومات السرية. كما حظرت أو قيدت عدة شركات تقنية أخرى، بما في ذلك Samsung و Amazon و Apple، وصول الموظفين إلى ChatGPT بسبب مخاوف أمان البيانات.
وعلى الرغم من هذه النكسة المؤقتة، تواصل Microsoft دعم ChatGPT، وقدم متحدث باسم Microsoft لاحقًا توضيحًا إلى CNBC، قائلاً: "كنا نختبر أنظمة التحكم في نقاط النهاية لنماذج اللغة الكبيرة وقمنا بتشغيلها عن غير قصد لجميع الموظفين. قمنا باستعادة الخدمة بعد فترة وجيزة من تحديد خطأنا. كما قلنا سابقًا، نشجع الموظفين والعملاء على استخدام خدمات مثل Bing Chat Enterprise و ChatGPT Enterprise التي تأتي بمستويات أعلى من حماية الخصوصية والأمان ".
وأكد هذا الحادث على التحديات المستمرة في تحقيق التوازن بين الفوائد المحتملة لنماذج الذكاء الاصطناعي مثل ChatGPT والحاجة إلى معالجة مخاوف الأمن والخصوصية، خاصة في بيئات الشركات.
وكان الأسبوع مزدحمًا بالنسبة لشركة OpenAI حيث كشفت عن أحدث نموذج AI الخاص بها، GPT-4 Turbo، مع تحسين المعرفة حتى أبريل 2023 والقدرة على التعامل مع مدخلات أكبر بكثير. كما أن الشركة تخفض الأسعار للمطورين الذين يستخدمون نماذج الذكاء الاصطناعي الخاصة بها.
وتسمح OpenAI الآن للمستخدمين بإنشاء روبوتات دردشة مخصصة دون الحاجة إلى برمجة، مما يوسع نطاق روبوتات الدردشة AI المخصصة. كما أنهم يقدمون GPT Store، مما يسمح للمبدعين بمشاركة روبوتات الدردشة المخصصة الخاصة بهم وكسب المال منها. قامت OpenAI بتبسيط أدوات الذكاء الاصطناعي الخاصة بها في مكان واحد، مما يبسط تجربة المستخدم. بالإضافة إلى ذلك، ستدافع OpenAI عن عملائها في المطالبات القانونية المتعلقة بانتهاك حقوق النشر.
المصدر: صدى البلد
كلمات دلالية: ميكروسوفت الذکاء الاصطناعی
إقرأ أيضاً:
رغم الدفاع عن نظامها.. بلومبرج تواجه مشكلات مع ملخصات الذكاء الاصطناعي
أطلقت وكالة بلومبرج نيوز في يناير الماضي نظامًا يعتمد على الذكاء الاصطناعي لتوليد ملخصات تلقائية لمقالاتها، بهدف مساعدة القراء على استيعاب المعلومات بسرعة واتخاذ قرارات حول المقالات التي تستحق القراءة بعمق.
لكن مع مرور الوقت، اضطرت الوكالة إلى إزالة عدة ملخصات بسبب أخطاء في المحتوى، مما أثار تساؤلات حول دقة هذه التقنية في بيئة الأخبار الاحترافية.
أمثلة على الأخطاء التي دفعت بلومبرغ إلى التدخلكشف بحث على Google عن 20 حالة على الأقل تم فيها حذف ملخصات المقالات بعد نشرها بسبب أخطاء.
من بين هذه الحالات، ملخصان لمقالات تتعلق بسياسة الرسوم الجمركية للرئيس الأمريكي السابق دونالد ترامب تم سحبهما، أحدهما لعدم تحديد موعد تطبيق الرسوم، والآخر بسبب "عدم الدقة" دون تحديد التفاصيل.
مقال اخر عن بيع مصانع الصلب تم تعديل ملخصه بعد أن أشار بشكل خاطئ إلى أن نقابة عمال الصلب (United Steelworkers) كانت تعارض خطط المالك، في حين أن ذلك لم يكن صحيحًا.
رغم هذه الأخطاء، أكدت بلومبرج أن 99% من الملخصات تفي بالمعايير التحريرية، وأن حالات التصحيح والتعديلات هي استثناءات نادرة.
كما أوضحت أن الصحفيين لديهم سيطرة كاملة على الملخصات، سواء قبل النشر أو بعده، ويمكنهم إزالة أي ملخص لا يرقى إلى مستوى الدقة المطلوبة.
الشفافية والمستقبلأكدت بلومبرج أنها شفافة تمامًا بشأن أي تحديثات أو تصحيحات يتم إجراؤها على المقالات، وأن فريق الخبراء التابع لها يواصل تحسين أداء النموذج اللغوي المستخدم في التلخيص.
ومع ذلك، تظل هذه التحديات بمثابة تحذير مهم حول الاعتماد الكامل على الذكاء الاصطناعي في الصحافة، حيث قد يكون دقيقًا في معظم الأحيان، لكنه لا يزال معرضًا للخطأ.