معلوماته خاطئة.. أول تحقيق رسمي بشان استخدام الذكاء الاصطناعي في الكتابة منوعات
تاريخ النشر: 14th, July 2023 GMT
منوعات، معلوماته خاطئة أول تحقيق رسمي بشان استخدام الذكاء الاصطناعي في الكتابة،طلبت اللجنة التجارة الفيدرالية FTC من شركة الذكاء الاصطناعي OpenAI تقديم معلومات .،عبر صحافة مصر، حيث يهتم الكثير من الناس بمشاهدة ومتابعه الاخبار، وتصدر خبر معلوماته خاطئة.. أول تحقيق رسمي بشان استخدام الذكاء الاصطناعي في الكتابة، محركات البحث العالمية و نتابع معكم تفاصيل ومعلوماته كما وردت الينا والان إلى التفاصيل.
طلبت اللجنة التجارة الفيدرالية (FTC) من شركة الذكاء الاصطناعي OpenAI تقديم معلومات حول التدابير التي تتخذها الشركة لمعالجة المخاطر المحتملة التي يتعرض لها المستخدمون لتقنية ChatGPT والحصول على معلومات غير صحيحة.
ووفقا لهيئة الإذاعة البريطانية، تعد هذه الخطوة تأكيدًا على التزايد في الرقابة التنظيمية للتكنولوجيا، حيث يتم اعتبار تقنيات الذكاء الاصطناعي المستندة إلى الحصول على النصوص قد تتضمن مخاطر كبيرة.
أول تحقيق عن مخاطر الذكاء الاصطناعيوبالفعل تعمل شركة OpenAI على تطوير تقنية ChatGPT التي تمكن المستخدمين من الحصول على ردود آلية دقيقة وشبيهة بالبشر على استفساراتهم في وقت قصير.
ومن المتوقع أن يؤثر استخدام هذه التقنية وتقنيات الذكاء الاصطناعي المماثلة بشكل كبير على طريقة الحصول على المعلومات عبر الإنترنت.
تنافس العديد من الشركات في مجال التكنولوجيا لتقديم منتجاتها الخاصة في هذا النطاق، وهو ما يثير جدلاً واسعًا، ويتضمن الجدل مسائل حول استخدام البيانات ودقة الردود المولدة، بالإضافة إلى تساؤلات حول مدى احترام الشركات لحقوق المؤلفين أثناء تدريب تقنياتها.
كيف عالج الذكاء الاصطناعي أخطاء المعلوماتوتتساءل لجنة التجارة الفيدرالية في خطابها عن الإجراءات التي اتخذتها شركة OpenAI لمعالجة المخاطر المحتملة لتوليد بيانات زائفة أو مضللة أو مهينة أو ضارة عن أفراد حقيقيين.
بالإضافة إلى ذلك، تدرس اللجنة أيضًا سياسة خصوصية البيانات لدى OpenAI وكيفية الحصول على هذه البيانات واستخدامها في تدريب وتطوير تقنيات الذكاء الاصطناعي.
من المهم أن يتعاون المنظمون والشركات المعنية معًا لتحقيق التوازن بين التطور التكنولوجي وحماية المستهلكين وضمان نزاهة وجودة المعلومات المقدمة من خلال تقنيات الذكاء الاصطناعي المتقدمة.
وأفاد أحد مسؤولي شركة OpenAI، بأنّ شركتهم قضت سنوات في أبحاث السلامة والتأكد من توافق ChatGPT مع المعايير الأمنية قبل إطلاقها.
وأضاف عبر حسابه على تويتر أنّ الشركة تحرص على حماية خصوصية المستخدمين وتصميم أنظمتها للتعرف على العالم وليس الأفراد. وأكد أن الشركة تعمل بالتعاون مع لجنة التجارة الفيدرالية وتلتزم بالقوانين والتشريعات المنظمة لصناعة الذكاء الاصطناعي.
المصدر: صحافة العرب
كلمات دلالية: الذكاء موعد عاجل الدولار الامريكي اليوم اسعار الذهب اسعار النفط مباريات اليوم جدول ترتيب حالة الطقس الذکاء الاصطناعی الحصول على
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي قادر على الخداع
تابع أحدث الأخبار عبر تطبيق
أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية أنثروبيك أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين وإبداء وجهات نظر مختلفة خلال تدريبها وفقا لما نشرته مجلة تك كرانش المتخصصة فى هذا المجال .
كشف فريق البحث إنه لا يوجد سبب للشعور بالفزع حاليا في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
ولهذا يجب النظر إلى تلك النتائج كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة بعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة.
تمت الدراسة بالتعاون مع مؤسسة ريد وود ريسيرش لأبحاث الذكاء الاصطناعي وتناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة لا يريد هوالقيام بها.
كما أن لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ ، فهي ببساطة آلات إحصائية وبعد تدريبها على العديد من الأمثلة تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة إلى من في رسالة بريد إلكتروني قبل عبارة قد يهمك الأمر.
وفى أثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة بما في ذلك النموذج "كلاود3 أوبس" التابع لشركة "أنثروبيك" والتي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة وهو تضارب واضح في المبادئ كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي ورقة ملاحظات .
ويمكنه استخدامها لتدوين أفكاره خطوة بخطوة وبحسب الباحثين فحاول "كلاود3 أوبوس" التلاعب بالردود لتقديم انحياز زائف في 12% من المرات.