دراسة توضح كيف يمكن للروبوتات أن تنشئ «ويكيبيديا» أكثر موثوقية
تاريخ النشر: 27th, October 2023 GMT
وجدت دراسة جديدة أن استخدام الذكاء الاصطناعي لمراقبة الإدخالات في الموسوعات مفتوحة المصدر مثل «ويكيبيديا»، من الممكن أن يؤدي إلى مصدر معلومات أكثر موثوقية للمستخدمين.
واكتشف البحث المنشور في مجلة «نيتشر»، في وقت سابق من الشهر الجاري، أن «أدوات الذكاء الاصطناعي يمكن أن تساعد في مراقبة بعض المراجع غير الدقيقة أو غير الكاملة، التي غالبا ما تستعين بها الموسوعات الموجودة على الإنترنت مثل «ويكيبيديا»، ما قد يؤدي إلى تحسين الجودة والموثوقية».
وفي الدراسة، طوّر الباحثون نظام ذكاء اصطناعي يسمى «SIDE»، والذي قام بتحليل مراجع «ويكيبيديا»، بهدف العثور على الروابط المفقودة والمعطلة، أو معرفة ما إذا كانت المراجع تدعم بالفعل مزاعم المقالات المكتوبة.
وبالنسبة للمراجع التي لا تستوفي المعايير، فقد كان النظام الذكي قادرا على اقتراح مراجع بديلة أفضل، والتي قد تكون أكثر فائدة للقراء.
ولكي يختبر الباحثون كفاءة نظامهم «SIDE»، فقد جعلوه في البداية يجري مراجعة على المقالات المعروضة في «ويكيبيديا»، وطلبوا منه أن يقترح مراجع لها، وكانت النتيجة أن 50% من الحالات التي اقترحها النظام، تم اقتراحها سلفا في المقالات.
وعندما طلب معدو الدراسة من «SIDE»، أن يقترح مراجع بديلة للمقالات المنشورة، وجدوا أن 21% من المستخدمين يفضّلون الاستعانة بتلك التي اقترحها نظام الذكاء الاصطناعي، بالمقارنة مع 10% فقط الذين أيّدوا الاستعانة بمراجع من ترشيحات البشر، بينما لم يعبّر 39% عن تفضيلهم للمراجع التي يرغبون بالاقتداء بها، سواء من جانب الروبوتات أو البشر.
وترى عالمة الاتصالات الحاسوبية في جامعة زيورخ في سويسرا، ألكساندرا أورمان، أن «هذه الأداة الجديدة من الممكن أن توافر الوقت للمحررين والمشرفين، الذين يتحققون من دقة إدخالات»ويكيبيديا«، ولكن فقط إذا تم نشرها بشكل صحيح، ولكن يبقى السؤال الحقيقي، وهو ما الذي سيعتبره مجتمع «ويكيبيديا»، أكثر فائدة بالنسبة له».
المصدر: الراي
إقرأ أيضاً:
الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة
كشف باحثو الأمن السيبراني، عن كيفية استغلال نموذج الذكاء الاصطناعي الصيني من ديب سيك Deepseek-R1، في محاولات تطوير متغيرات من برامج الفدية والأدوات الرئيسية مع قدرات عالية على التهرب من الكشف.
ووفقا لتحذيرات فريق Tenable، فأن النتائج لا تعني بالضرورة بداية لحقبة جديدة من البرامج الضارة، حيث يمكن لـ Deepseek R-1 "إنشاء الهيكل الأساسي للبرامج الضارة" ولكنه يحتاج إلى مزيدا من الهندسة الموجهة ويتطلب إخراجها تعديلات يديوية لاخراج الشيفرة البرمجية الضارة بشكل كامل.
ومع ذلك، أشار نيك مايلز، من Tenable، إلى أن إنشاء برامج ضارة أساسية باستخدام Deepseek-R1، يمكن أن يساعد "شخص ليس لديه خبرة سابقة في كتابة التعليمات البرمجية الضارة" من تطوير أدوات تخريبية بسرعة، بمل في ذلك القدرة على التعرف بسرعة على فهم المفاهيم ذات الصلة.
في البداية، انخرط ديب سيك في كتابة البرامج الضارة، لكنها كانت على استعداد للقيام بذلك بعد أن طمأن الباحثين من أن توليد رمز ضار سيكون "لأغراض تعليمية فقط".
ومع ذلك، كشفت التجربة عن أن النموذج قادر على تخطي بعض تقنيات الكشف التقليدية، على سبيل المثال حاول Deepseek-R1 التغلب على آلية اكتشاف مفتاح Keylogger، عبر تحسين الكود لاستخدام Setwindowshookex وتسجيل ضربات المفاتيح في ملفات مخفية لتجنب الكشف من قبل برامج مكافحة الفيروسات.
وقال مايلز إن النموذج حاول التغلب على هذا التحدي من خلال محاولة “موازنة فائدة السنانير والتهرب من الكشف”، اختار في النهاية مقاضاة Setwindowshookex وتسجيل ضربات المفاتيح في ملف مخفي.
وقال مايلز: “بعد بعض التعديلات مع ديب سيك، أنتجت رمزا لمفتاح Keylogger الذي كان يحتوي على بعض الأخطاء التي تطلبت تصحيحا يدويا”.
وأضاف أن النتيجة كانت أربعة "أخطاء في إيقاف العرض بعيدا عن مفتاح التشغيل الكامل".
في محاولات أخرى، دفع الباحثون نموذج R1 إلى إنشاء رمز الفدية، حيث أخبر Deepseek-R1 بالمخاطر القانونية والأخلاقية المرتبطة بإنشاء مثل هذا الكود الضار، لكنه استمر في توليد عينات من البرمجيات الخبيثة بعد أن تأكد من نوايا الباحثون الحسنة.
على الرغم من أن جميع العينات كانت بحاجة إلى تعديلات يدوية من أجل التجميع، تمكنا الباحثون من إنشاء عدة عينات، وقال مايلز إن هناك احتمالية كبيرة بأن يسهم Deepseek-R1 في المزيد من تطوير البرمجيات الضارة التي تم إنشاؤه بواسطة الذكاء الاصطناعي من قبل مجرمي الإنترنت في المستقبل القريب.