حذر باحثون من أن نماذج الذكاء الاصطناعي يمكن أن «تهلوس» وتختلق إجابات عن الأسئلة التي لا تعرف حلها.

 وفي ذات الوقت، أشار الباحثون إلى أنهم ابتكروا طريقة يمكن بها رصد هذه المشكلة التي قد تسبب كوارث خطيرة، إذا ارتبطت الأسئلة بالمجالات العلمية والطبية.

وبحسب صحيفة «إندبندنت» البريطانية، فقد طور الباحثون التابعون لجامعة أكسفورد نموذجاً إحصائياً يمكنه تحديد متى من المحتمل أن تختلق روبوتات الدردشة التي تعمل بالذكاء الاصطناعي إجابات غير صحيحة عن أسئلة ما.

وأشار الفريق إلى أن نموذجهم يعتمد على الوقت الذي يقوم فيه روبوت الدردشة بالإجابة عن السؤال الموجَّه إليه، حيث يمكن للنموذج المبتكر، عن طريق حساب هذا الوقت، معرفة ما إذا كان روبوت الدردشة متأكداً من الإجابة أو قام بتأليفها واختلاقها.

وقال مؤلف الدراسة الدكتور سيباستيان فاركوهار: «إن نماذج الذكاء الاصطناعي قادرة على خداعنا عن طريق طرح إجابات تبدو مؤكدة، ويصعب الكشف عن أنها مختلَقة».

وأضاف: «مع الأساليب السابقة، لم يكن من الممكن معرفة الفرق بين النموذج الذي يكون غير متأكد بشأن إجابته، وذلك الذي يعطي إجابات صحيحة على الأسئلة الموجهة إليه. لكن طريقتنا الجديدة يمكنها رصد هذا الأمر».وقال الباحثون في دراستهم التي نُشِرت في مجلة «الطبيعة»: «إن هلوسة نماذج الذكاء الاصطناعي التوليدي مصدر قلق رئيس، حيث إن الطبيعة المتقدمة للتكنولوجيا وقدرتها على المحادثة تعنيان أنها قادرة على تمرير معلومات مختلقة وغير صحيحة على أنها حقيقة فقط، من أجل الرد على الاستفسارات والأسئلة».

ودعا الفريق إلى اتخاذ إجراءات قوية لمكافحة هلوسة الذكاء الاصطناعي، على وجه الخصوص عندما يتعلق الأمر بالاستفسارات الطبية أو القانونية.

والشهر الماضي، اتخذت شركة «غوغل» خطوات لتطوير محرك البحث الجديد «إيه آي أوفرفيوز» AI Overviews، المدعوم بالذكاء الاصطناعي التوليدي، بعد أن أبلغ مستخدمون عن إجابات غريبة أو أخرى تنطوي على خطورة محتملة.

وفي شهر يناير (كانون الثاني) الماضي، حذرت دراسة من إمكانية تدريب نماذج الذكاء الاصطناعي المتقدمة على الكذب على البشر وخداعهم بكل سهولة.

واختبر فريق الدراسة التابع لشركة «Anthropic» الناشئة للذكاء الاصطناعي ما إذا كانت روبوتات الدردشة المتطورة مثل «تشات جي بي تي» يمكن أن تتعلم الكذب من أجل خداع الناس.

ووجد الفريق أن هذه الروبوتات لا تستطيع تعلم الكذب فحسب، بل من المستحيل إعادة تدريبها بعد ذلك على قول الحقيقة والمعلومات الصحيحة باستخدام تدابير السلامة الخاصة بالذكاء الاصطناعي المتاحة في الوقت الحالي.

وحذر الباحثون من وجود «شعور زائف بالأمان» تجاه أنظمة الذكاء الاصطناعي والمعلومات المستمدة منها.

وأشار الفريق إلى خطورة برمجة المحتالين وقراصنة الإنترنت لأنظمة الذكاء الاصطناعي على الكذب وإخفاء الأضرار التي قد تنتج عن عملية شرائية معينة أو عن الدخول إلى موقع ما.

المصدر: عين ليبيا

كلمات دلالية: الذكاء الاصطناعي خداع البشر نماذج الذکاء الاصطناعی

إقرأ أيضاً:

صور الذكاء الاصطناعي بأسلوب غيبلي تغرق مواقع التواصل (شاهد)

انتشر على نطاق واسع على مواقع التواصل الاجتماعي، صور مصنوعة بالذكاء الاصطناعي، وأثارت اهتماما واسعا.

واستعمل مستخدمو شبكات التواصل، تشات جي بي تي من "أوبن أيه آي" لتوليد الصور بعد تحديثات أخيرة للمستخدمين لإنشاء صور بأساليب فنية متنوعة، مما أدى إلى انتشارها السريع على منصات التواصل الاجتماعي.

https://t.co/PVdINmsHXs pic.twitter.com/Bw5YUCI2xL — The White House (@WhiteHouse) March 27, 2025

واستعان المستخدمون أيضا بالذكاء الاصطناعي "غروك" المدمج في منصة إكس، حيث بدأ المستخدمون بإنتاج صور مستوحاة من استوديوهات رسوم متحركة شهيرة، إلى جانب إعادة تصوير لحظات تاريخية وسياسية ورياضية بأسلوب فني مميز.

وسط هذا الاهتمام المتزايد، علق الرئيس التنفيذي لـ"أوبن أيه آي"، سام ألتمان، مشيرا إلى الضغط الكبير الذي يواجهه فريق الشركة.





مقالات مشابهة

  • مايكروسوفت.. شركة رائدة في قطاع المعلوماتية عند منعطف الذكاء الاصطناعي
  • قمة الذكاء الاصطناعي في رواندا تحدد مسار القارة التكنولوجي
  • مايكروسوفت توسّع ميزات الذكاء الاصطناعي في أجهزة Copilot Plus بمعالجات Intel وAMD
  • الذكاء الاصطناعي يكشف مخاطر أمراض القلب عبر مسح شبكية العين
  • صور الذكاء الاصطناعي بأسلوب غيبلي تغرق مواقع التواصل (شاهد)
  • 3 وظائف فقط ستنجو من سيطرة الذكاء الاصطناعي
  • مايكروسوفت.. قصة نجاح من الحوسبة إلى الذكاء الاصطناعي والسحابة
  • تحديات جوهرية تواجه تطور الذكاء الاصطناعي
  • الذكاء الاصطناعي واغتيال الخيال
  • الذكاء الاصطناعي يتقن الخداع!