أصبحت روبوتات الدردشة المدعومة بالذكاء الاصطناعي أكثر شعبية وقوة، وذلك بفضل التقدم في معالجة اللغة الطبيعية والتعلم العميق.

ويمكن لهذه الروبوتات مساعدتنا في مهام مختلفة، مثل حجز الرحلات الجوية أو طلب الطعام أو الإجابة على الأسئلة.. ومع ذلك، فهي ليست مثالية ففي بعض الأحيان، يمكن أن تنتج ردوداً غير دقيقة، أو غير ذات صلة، أو حتى لا معنى لها.

. وهذا ما يسمى "الهلوسة"، ويحدث عندما يقوم نموذج الذكاء الاصطناعي بإنشاء شيء لا يعتمد على الواقع أو المنطق.

فيما يلي بعض النصائح التي يمكن أن تساعدك في الحصول على استجابات أكثر دقة وموثوقية من روبوتات الدردشة المدعمة بالذكاء الاصطناعي، بحسب صحيفة إنديان إكسبريس:


استخدم لغة بسيطة ومباشرة

أحد الأسباب الرئيسية للهلوسة هو الغموض.. عند استخدام مطالبات معقدة أو غامضة، قد لا يفهم نموذج الذكاء الاصطناعي ما تريد أو ما تعنيه.. وقد يحاول تخمين أو ملء الفجوات، ما يؤدي إلى استجابات غير دقيقة أو غير ذات صلة.

لتجنب ذلك، يجب عليك استخدام لغة بسيطة ومباشرة عند التواصل مع روبوتات الدردشة المدعمة بالذكاء الاصطناعي.. تأكد من أن مطالباتك واضحة وموجزة وسهلة الفهم.. تجنب استخدام المصطلحات أو اللغات العامية أو التعابير أو الاستعارات التي قد تربك نموذج الذكاء الاصطناعي.

على سبيل المثال، بدلاً من طرح سؤال على برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي "ما هي أفضل طريقة للبقاء دافئاً في الشتاء؟"، والذي يمكن أن يكون له العديد من التفسيرات والإجابات المحتملة، يمكنك أن تسأل "ما هي بعض أنواع الملابس التي يمكن أن تبقيني دافئاً في الشتاء؟"، وهو أكثر تحديداً ومباشرة.

دمج السياق في مطالباتك

 هناك طريقة أخرى لتقليل الغموض وهي توفير بعض السياق في مطالباتك.. يساعد السياق نموذج الذكاء الاصطناعي على تضييق نطاق النتائج المحتملة وتوليد استجابة أكثر ملاءمة.

يمكن أن يتضمن السياق معلومات مثل موقعك أو تفضيلاتك أو أهدافك أو خلفيتك، على سبيل المثال، بدلاً من طرح سؤال "كيف يمكنني تعلم لغة جديدة؟"، وهو سؤال واسع جداً ومفتوح النهاية، على برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي، يمكنك أن تسأل "كيف يمكنني تعلم اللغة الفرنسية في ستة أشهر إذا كنت أعيش في الهند ولا توجد معرفة مسبقة باللغة الفرنسية؟"، ما يمنح نموذج الذكاء الاصطناعي المزيد من التفاصيل والقيود للعمل معها.


أعطِ الذكاء الاصطناعي دوراً محدداً واطلب منه ألا يكذب

في بعض الأحيان، يمكن للذكاء الاصطناعي اختلاق الأشياء عندما لا يكون لديه إحساس واضح بهويتها أو غرضها، وقد يحاول تقليد السلوك البشري، ما قد يؤدي إلى حدوث أخطاء أو تناقضات.

وقد يحاول أيضًا "إثارة إعجابك" من خلال اختلاق أشياء غير حقيقية أو واقعية، ولمنع حدوث ذلك، يجب عليك إعطاء الذكاء الاصطناعي دوراً محدداً وتطلب منه ألا يكذب.. يحدد الدور ما يفترض أن يفعله أو يكون عليه نموذج الذكاء الاصطناعي، مثل المعلم أو الصديق أو الطبيب أو الصحفي.. ويحدد الدور أيضاً بعض التوقعات والحدود لسلوك واستجابات نموذج الذكاء الاصطناعي.

الحد من النتائج المحتملة

سبب آخر لحدوث الهلوسة هو أن نموذج الذكاء الاصطناعي لديه الكثير من الخيارات أو الإمكانيات للاختيار من بينها.. قد ينشئ شيئاً عشوائياً أو لا علاقة له بموجهك، وقد يولد أيضاً شيئاً متناقضاً أو غير متوافق مع الإجابات السابقة.

لتجنب ذلك، يجب عليك الحد من النتائج المحتملة عن طريق تحديد نوع الاستجابة التي تريدها.. يمكنك القيام بذلك عن طريق استخدام الكلمات الرئيسية أو التنسيقات أو الأمثلة أو الفئات التي توجه نموذج الذكاء الاصطناعي نحو اتجاه أو هدف معين.

على سبيل المثال، إذا كنت تريد أن تطلب من برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي وصفة، يمكنك أن تقول "أعطني وصفة لكعكة الشوكولاتة في نقاط".. بهذه الطريقة، أنت تخبر نموذج الذكاء الاصطناعي بنوع المحتوى والبنية التي يجب أن يستخدمها للاستجابة.


تجميع البيانات والمصادر ذات الصلة والفريدة من نوعها بالنسبة لك

أخيراً، إحدى أفضل الطرق لمنع روبوت الدردشة من نشر معلومات خاطئة هي توفير البيانات والمصادر ذات الصلة الفريدة لك في مطالباتك.. يمكن أن تتضمن البيانات والمصادر حقائق أو إحصائيات أو أدلة أو مراجع تدعم رسالتك أو سؤالك.. يمكن أن تتضمن البيانات والمصادر أيضاً معلومات شخصية أو تجارب تجعل مطالبتك أكثر تحديداً أو فريدة من نوعها.

ومن خلال توفير البيانات والمصادر الفريدة لك، فإنك تمنح نموذج الذكاء الاصطناعي المزيد من السياق والمعلومات للعمل معها.. أنت أيضاً تجعل من الصعب على نموذج الذكاء الاصطناعي إنشاء شيء عام أو غير دقيق.

المصدر: أخبارنا

كلمات دلالية: نموذج الذکاء الاصطناعی بالذکاء الاصطناعی روبوتات الدردشة یمکن أن أو غیر

إقرأ أيضاً:

الذكاء الاصطناعي يكتب ملاحظات المجتمع في منصة إكس

أبوظبي (الاتحاد) أحدثت منصة إكس التابعة لإيلون ماسك، بلا شك، تحولًا في آليات التحقق من المعلومات على وسائل التواصل الاجتماعي، عبر إطلاق ميزة "ملاحظات المجتمع"، التي وفّرت نظامًا جماعيًا يُمكّن المستخدمين من الإسهام بوجهات نظر متنوعة حول مدى موثوقية بعض المنشورات.

منصة إكس تعتزم السماح للذكاء الاصطناعي بكتابة هذه الملاحظات، وتهدف المنصة من خلال هذه الخطوة إلى تسريع نشر الملاحظات التوضيحية على المنشورات وتوسيع نطاقها، مع الحفاظ على الدقة والحيادية.

ميزة "ملاحظات المجتمع Community Notes" في منصة إكس تهدف إلى مكافحة المعلومات المضللة وتعزيز الشفافية، وذلك من خلال تمكين المستخدمين من إضافة ملاحظات توضيحية على المنشورات التي قد تحتوي على معلومات غير دقيقة أو مضللة.

كشفت منصة إكس عن أدوات تطوير جديدة تتيح للمبرمجين إنشاء "كتّاب ملاحظات آليين" بالاعتماد على الذكاء الاصطناعي، مشيرة إلى أن هذه الأدوات ستُستخدم حاليًا في وضع اختبار، ولن تُنشر أي ملاحظة مكتوبة بالذكاء الاصطناعي من دون مراجعة واعتماد.

هذه الميزة لا تزال قيد التجربة، ولن تُطرح للجمهور إلا بعد أسابيع من الاختبار والتقييم.

ومن المقرر قبول أول دفعة من "كُتّاب الملاحظات الآليين" في وقت لاحق من هذا الشهر، ليبدأ بعدها ظهور الملاحظات التي أُنشئت بالذكاء الاصطناعي أمام المستخدمين.

أوضحت منصة إكس أن هذه الميزة الجديدة قد تسهم في تطوير نماذج ذكاء اصطناعي أكثر دقة وأقل تحيّزًا، من خلال الاستفادة من تقييمات المستخدمين للملاحظات المنشورة، مما يخلق "دورة تحسين متواصلة" تعزز كفاءة تلك الميزة.

أخبار ذات صلة جلسة من «مَيْلِس» في «محمد بن زايد للذكاء الاصطناعي» «التقنية العليا» تمكّن طلبتها في مهارات الذكاء الاصطناعي

وستخضع الملاحظات التي تكتبها نماذج الذكاء الاصطناعي إلى تقييم أولي عبر نظام مفتوح المصدر وآلي يُقيّم مدى صلة الملاحظة بالموضوع، ويرصد إذا كانت تنطوي على إساءة أو غيره. ويعتمد هذا التقييم على بيانات سابقة من مساهمي مجتمع الملاحظات.

وأكدت منصة إكس أن "التحكم ما زال بيد البشر"، لكن دور العنصر البشري يبدو مقتصرًا على تقييم الملاحظات بعد نشرها، من خلال نظام التصويت والتغذية الراجعة.

ولتوفير الشفافية، سوف تُميّز كل ملاحظة أُنشئت بالذكاء الاصطناعي بوضوح عند عرضها للمستخدمين. كما أوضحت الشركة أن الذكاء الاصطناعي لن يُستخدم إلا على المنشورات التي طُلبت لها ملاحظات مجتمعية سابقًا، في حين تتجه المنصة مستقبلًا إلى توسيع نطاق استخدام الذكاء الاصطناعي ضمن نظام التحقق من المحتوى.

لكن هذه الخطوة لا تخلو من الجدل، فبحسب ورقة بحثية صدرت هذا الأسبوع عن فريق "Community Notes"، يوصى بأن يعمل الذكاء الاصطناعي جنباً إلى جنب مع البشر، خصوصاً طلاب الماجستير في القانون (LLM)، لتعزيز دقة المحتوى عبر التعلم المعزز ومراجعة بشرية نهائية قبل النشر. 
ويؤكد الباحثون: "هدفنا ليس خلق مساعد ذكي يوجه المستخدمين إلى ما يجب أن يعتقدوه، بل تمكينهم من التفكير النقدي وفهم الواقع بشكل أعمق".

بوجه عام، بينما تسعى  منصة إكس إلى تحسين الأداء والكفاءة عبر الذكاء الاصطناعي، تبقى الحاجة ملحة إلى رقابة بشرية واعية تكافح نشرالمعلومات الزائفة المقنّعة.

ولكن تبقى هناك أسئلة جوهرية، من أبرزها: هل ستكون الملاحظات التي يكتبها الذكاء الاصطناعي دقيقة بقدر تلك التي يكتبها البشر؟.

مقالات مشابهة

  • إلى كتبة الذكاء الاصطناعي: ارحمونا!
  • إكس تختبر كتابة “ملاحظات المجتمع” بالذكاء الاصطناعي
  • تكريم شرطة أبوظبي لفوزها بمنظومة خفض السرعات بالذكاء الاصطناعي
  • ميتا تطور واتساب للأعمال بميزات جديدة بالذكاء الاصطناعي
  • استفد من ChatGPT وروبوتات الدردشة الأخرى التي تعمل بالذكاء الاصطناعي بهذه النصائح
  • متاحف قطر تطلق أول تجربة تفاعلية مدعومة بالذكاء الاصطناعي لاستكشاف الفن والتراث
  • تعرف على خطة غوغل التي استغرقت 25 عاما للوصول إلى الذكاء الاصطناعي
  • الذكاء الاصطناعي يكتب ملاحظات المجتمع في منصة إكس
  • العلماء قلقون: الذكاء الاصطناعي يتلاعب ويكذب
  • واتساب تطلق ميزة “تلخيص الرسائل” باستخدام الذكاء الاصطناعي