هل يختلق الإجابات؟.. دعوى قضائية على تشات جي بي تي
تاريخ النشر: 29th, April 2024 GMT
أعلنت جمعية "نويب" النمساوية التي تدافع عن حماية الخصوصية، الاثنين، أنها رفعت دعوى في النمسا على برنامج الذكاء الاصطناعي الشهير "تشات جي بي تي"، وفق فرانس برس.
وأكدت الجمعية، التي يتألف اسمها من الحروف الأولى لكلمات "نَن أوف يور بيزنس" أي "ليس من شأنك" بالإنكليزية، أنّ هذه الأداة "تختلق الأجوبة".
وعلى سبيل المثال، طُرح على "تشات جي بي تي" سؤال عن تاريخ ميلاد مؤسس الجمعية، ماكس شريمه، فعرض البرنامج "معلومات مضللة" بدل الإفادة بأنه لا يعرف هذه الإجابة.
ونقل البيان عن المحامية، مارتييه دي غراف، قولها "إذا لم يتمكن برنامج ما من عرض نتائج صحيحة وشفافة، فلا يمكن استخدامه لتوليد بيانات عن الأفراد"، مضيفة "على التكنولوجيا أن تمتثل للقانون لا العكس".
وأكدت "نويب" أن أداء البرنامج "ببساطة غير مقبول"، مذكّرةً بأن القانون الأوروبي لحماية البيانات (GDPR) يشترط توافر الدقة في الأدوات التكنولوجية.
وبما أن شركة "أوبن ايه آي" "رفضت طلب الجهة المدعية تصحيح الخطأ، أو محوَه، مؤكدة أن ذلك مستحيل"، اتضّح أن نسيان الذكاء الاصطناعي ما تعلّمه يمثل في الواقع مشكلة أساسية.
ولم تستجب الشركة لطلب "نويب" الحصول على البيانات المتعلقة بها ومصادر المعلومات، مما يشكل هنا أيضا انتهاكا للقانون، وفق الجمعية.
وفي الدعوى، طلبت "نويب" من هيئة حماية البيانات النمساوية فتح تحقيق وفرض غرامة على شركة "أوبن ايه آي".
المصدر: الحرة
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
من يُلام في خطأ طبي يرتكبه الذكاء الاصطناعي؟
تُبشّر تقنيات الذكاء الاصطناعي المساعد بآفاقٍ واعدة لإحداث نقلة نوعية في الرعاية الصحية، من خلال مساعدة الأطباء في تشخيص المرضى وإدارتهم وعلاجهم. ومع ذلك، فإنّ التوجه الحالي لتطبيق الذكاء الاصطناعي المساعد قد يُفاقم التحديات المتعلقة بمنع الأخطاء وإرهاق الأطباء، بحسب موجز جديد أعده باحثون في جامعتي جون هوبكنز وتكساس.
ويُوضّح الموجز أنّ هناك توقعات متزايدة من الأطباء بالاعتماد على الذكاء الاصطناعي للحدّ من الأخطاء الطبية.
ومع ذلك، لم تُوضَع بعد قوانين ولوائح مناسبة لدعم الأطباء في اتخاذ قراراتهم المُوجّهة بالذكاء الاصطناعي، على الرغم من التبني المُكثّف لهذه التقنيات في مؤسسات الرعاية الصحية.
المسؤولية الطبيةووفق "مديكال إكسبريس"، يتوقع الباحثون أن المسؤولية الطبية ستعتمد على من يعتبره المجتمع مُخطئاً عند فشل التقنية أو ارتكابها خطأً، ما يُخضع الأطباء لتوقعاتٍ غير واقعية بمعرفة متى يجب تجاوز الذكاء الاصطناعي أو الثقة به.
ويُحذّر الباحثون من أنّ مثل هذا التوقع قد يزيد من خطر الإرهاق، وحتى الأخطاء بين الأطباء.
تفسير التقنياتوقالت شيفالي باتيل، الأستاذة المشاركة من جامعة تكساس: "كان الهدف من الذكاء الاصطناعي تخفيف العبء، ولكنه بدلاً من ذلك يُلقي بالمسؤولية على عاتق الأطباء، مُجبراً إياهم على تفسير تقنيات لا يستطيع حتى مُبتكروها شرحها بالكامل".
وأضافت: "هذا التوقع غير الواقعي يُولّد تردداً ويُشكّل تهديداً مباشراً لرعاية المرضى".
ويقترح الموجز الجديد استراتيجياتٍ لمؤسسات الرعاية الصحية لدعم الأطباء من خلال تحويل التركيز من الأداء الفردي إلى الدعم والتعلم التنظيمي، ما قد يُخفف الضغط على الأطباء ويُعزز نهجاً أكثر تعاوناً لدمج الذكاء الاصطناعي.
وقال كريستوفر مايرز، الباحث المشارك: "إن توقع أن يفهم الأطباء الذكاء الاصطناعي ويطبقونه بشكل مثالي عند اتخاذ القرارات السريرية يُشبه توقع أن يُصمّم الطيارون طائراتهم الخاصة أيضاً أثناء تحليقهم بها".
وأضاف: "لضمان تمكين الذكاء الاصطناعي للأطباء بدلاً من إرهاقهم، يتعين على منظمات الرعاية الصحية تطوير أنظمة دعم تساعد الأطباء على تحديد متى وكيف يستخدمون الذكاء الاصطناعي حتى لا يضطروا إلى التشكيك في الأدوات التي يستخدمونها لاتخاذ القرارات الرئيسية".