الذكاء الاصطناعي التوليدي: هل يمكن للروبوتات طلب المساعدة مثل البشر؟
تاريخ النشر: 10th, September 2024 GMT
في ظل الانتشار المتزايد للذكاء الاصطناعي التوليدي في مختلف المجالات، من الصحة إلى الصناعة، أصبحت الشركات تعمد بشكل متزايد إلى استخدام هذه التكنولوجيا لتوفير الجهد والمال.
وفي هذا السياق، أعرب فيك سينج، نائب رئيس شركة مايكروسوفت، عن أهمية تطوير روبوتات الدردشة لتتعلم طلب المساعدة عندما تكون غير قادرة على أداء المهام الموكلة إليها.
وفقًا لما ذكره سينج، فإن أدوات الذكاء الاصطناعي التوليدي، مثل الروبوتات الذكية، يجب أن تكون قادرة على الاعتراف عندما لا تتمكن من تنفيذ مهمة معينة وطلب المساعدة.
يساهم هذا في تحسين فعالية هذه الأدوات ويقلل من الأخطاء التي قد تحدث عند محاولة تقديم إجابات غير دقيقة أو "هلوسة" - وهي ظاهرة حيث يخترع الذكاء الاصطناعي إجابات غير منطقية أو غير صحيحة.
مشكلة "الهلوسة" في الذكاء الاصطناعيعلى الرغم من التقدم الكبير في تكنولوجيا الذكاء الاصطناعي، لا تزال هناك مشاكل تتعلق بـ "الهلوسة" أو تقديم إجابات خاطئة.
كما أشار مارك بينيوف، الرئيس التنفيذي لشركة Salesforce، إلى أن العديد من العملاء يشعرون بالإحباط بسبب تعقيدات البرامج مثل "Copilot" التابعة لمايكروسوفت.
جهود البحث لتحسين الذكاء الاصطناعيأوضح سينج أن الباحثين يعملون على تحسين قدرة روبوتات الدردشة على طلب المساعدة عند الحاجة.
حتى إذا كان النموذج بحاجة إلى اللجوء إلى الإنسان في نصف الحالات، فإن هذا لا يزال يوفر الوقت والمال للشركات.
تأثير الذكاء الاصطناعي على الأعمالفي ذروة الاهتمام بالذكاء الاصطناعي، كانت الشركات الناشئة وعدت بأنظمتها المتقدمة سترتقي بالإنسانية.
كما أشار سام ألتمان، رئيس OpenAI، إلى أن الذكاء الاصطناعي يمكن أن يكون له تأثير إيجابي كبير.
من جهة أخرى، أكدت شركة مايكروسوفت أن برنامج "Copilot" يمكن أن يجري الأبحاث نيابة عن مندوبي المبيعات، مما يوفر الوقت والجهد في الاتصال بالعملاء.
وذكر سينج أن شركة Lumen للاتصالات، على سبيل المثال، قد وفرت نحو 50 مليون دولار سنويًا بفضل استخدام هذه التكنولوجيا.
مستقبل الذكاء الاصطناعي في مراكز الاتصالأعلن بعض قادة الشركات الكبرى، مثل كيه كريثيفاسان، رئيس شركة TCS الهندية، أن الذكاء الاصطناعي التوليدي قد يقضي على الحاجة لمراكز الاتصال التقليدية.
المصدر: بوابة الفجر
كلمات دلالية: الذكاء الاصطناعي التوليدي روبوتات الدردشة طلب المساعدة تكنولوجيا المعلومات الاصطناعی التولیدی الذکاء الاصطناعی طلب المساعدة
إقرأ أيضاً:
الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة
كشف باحثو الأمن السيبراني، عن كيفية استغلال نموذج الذكاء الاصطناعي الصيني من ديب سيك Deepseek-R1، في محاولات تطوير متغيرات من برامج الفدية والأدوات الرئيسية مع قدرات عالية على التهرب من الكشف.
ووفقا لتحذيرات فريق Tenable، فأن النتائج لا تعني بالضرورة بداية لحقبة جديدة من البرامج الضارة، حيث يمكن لـ Deepseek R-1 "إنشاء الهيكل الأساسي للبرامج الضارة" ولكنه يحتاج إلى مزيدا من الهندسة الموجهة ويتطلب إخراجها تعديلات يديوية لاخراج الشيفرة البرمجية الضارة بشكل كامل.
ومع ذلك، أشار نيك مايلز، من Tenable، إلى أن إنشاء برامج ضارة أساسية باستخدام Deepseek-R1، يمكن أن يساعد "شخص ليس لديه خبرة سابقة في كتابة التعليمات البرمجية الضارة" من تطوير أدوات تخريبية بسرعة، بمل في ذلك القدرة على التعرف بسرعة على فهم المفاهيم ذات الصلة.
في البداية، انخرط ديب سيك في كتابة البرامج الضارة، لكنها كانت على استعداد للقيام بذلك بعد أن طمأن الباحثين من أن توليد رمز ضار سيكون "لأغراض تعليمية فقط".
ومع ذلك، كشفت التجربة عن أن النموذج قادر على تخطي بعض تقنيات الكشف التقليدية، على سبيل المثال حاول Deepseek-R1 التغلب على آلية اكتشاف مفتاح Keylogger، عبر تحسين الكود لاستخدام Setwindowshookex وتسجيل ضربات المفاتيح في ملفات مخفية لتجنب الكشف من قبل برامج مكافحة الفيروسات.
وقال مايلز إن النموذج حاول التغلب على هذا التحدي من خلال محاولة “موازنة فائدة السنانير والتهرب من الكشف”، اختار في النهاية مقاضاة Setwindowshookex وتسجيل ضربات المفاتيح في ملف مخفي.
وقال مايلز: “بعد بعض التعديلات مع ديب سيك، أنتجت رمزا لمفتاح Keylogger الذي كان يحتوي على بعض الأخطاء التي تطلبت تصحيحا يدويا”.
وأضاف أن النتيجة كانت أربعة "أخطاء في إيقاف العرض بعيدا عن مفتاح التشغيل الكامل".
في محاولات أخرى، دفع الباحثون نموذج R1 إلى إنشاء رمز الفدية، حيث أخبر Deepseek-R1 بالمخاطر القانونية والأخلاقية المرتبطة بإنشاء مثل هذا الكود الضار، لكنه استمر في توليد عينات من البرمجيات الخبيثة بعد أن تأكد من نوايا الباحثون الحسنة.
على الرغم من أن جميع العينات كانت بحاجة إلى تعديلات يدوية من أجل التجميع، تمكنا الباحثون من إنشاء عدة عينات، وقال مايلز إن هناك احتمالية كبيرة بأن يسهم Deepseek-R1 في المزيد من تطوير البرمجيات الضارة التي تم إنشاؤه بواسطة الذكاء الاصطناعي من قبل مجرمي الإنترنت في المستقبل القريب.