بعد فشل التجربة.. هل الذكاء الاصطناعي غير آمنٍ في الصحافة؟
تاريخ النشر: 2nd, September 2023 GMT
أدّى "التسرّع" في الاعتماد على تقنيات الذكاء الاصطناعي لكتابة القصص الإخبارية بدل البشر في وسائل إعلام أميركية، إلى حدوث أخطاء، أثارت سخرية الجمهور منها، ولفتت النظر إلى استحالة الاعتماد الكلي على الآلة.
يوضّح خبير تكنولوجيا لموقع "سكاي نيوز عربية"، "الحدود الآمنة" اللازم أن تراعيها شركات الإعلام في استخدام هذه التقنية؛ ملقيا بجزء كبير من مسؤولية الأخطاء على الإنسان نفسه.
في اليومين الأخيرين، تعرّضت شركة "غانيت" الأميركية العملاقة، التي تملك مئات الصحف المحلية في الولايات المتحدة، لسخرية من معلّقين على مواقع التواصل الاجتماعي، بعد رصد أخطاء عديدة في مقالات رياضية نشرتها.
حسب موقع "بيزنيس إنسيدر"، فإن الشركة أوقفت، مؤقتا، استخدام الذكاء الاصطناعي في تحرير الأخبار، بعد هذه التجربة غير المرضية، وحديث قرّاء عن أن العديد من المقالات محرّرة بشكل سيئ وخلت من تفاصيل مهمة، وكأن الكاتب ليس لديه أي معرفة بالرياضة.
الخطأ البشري
الخبير في الذكاء الاصطناعي، أحمد الدموهي، يلفت إلى أن استخدام هذه التقنية في مجال التحرير الصحفي ما زال في مرحلة التطوير؛ فلا يجب الاعتماد عليها بشكل كلي، ويلزم استمرار مراقبة البشر عليها.
وعلى هذا، يُرجع الدموهي ما حدث إلى "خطأ بشري"، قائلا إن "الآلة تتعلم من المدخلات التي يدخلها فيها البشر؛ فدور البشر إمدادها بالمعلومات ومراقبة أدائها لتطويرها وتقليل نسبة الأخطاء تدريجيا؛ مثل التحديثات المعروفة لكل السوفت وير وأنظمة تشغيل الكمبيوتر والموبايل".
ولذا، فإنه إن لم يدرك البشر صيغة البحث وطرح الأسئلة على "شات" الذكاء الاصطناعي، ولم يدخل المعلومات المطلوبة "فستحدث الأخطاء"، حسب المتخصص في هذا المجال، والذي يقول إن حديثه "بناء على تجربته الشخصية في استخدام الذكاء الاصطناعي".
ولا يعتقد الدموهي تعتمد بعض الشركات على الذكاء الاصطناعي بشكل كامل؛ لأن هذه التقنية "عامل مساعد" لتسريع إنتاج البشر وتقليل مجهود العمل للحصول على أفضل نتائج في أقل وقت.
المصدر: سكاي نيوز عربية
كلمات دلالية: ملفات ملفات ملفات الذكاء الاصطناعي الذكاء الاصطناعي الذكاء الاصطناعي تكنولوجيا الذکاء الاصطناعی
إقرأ أيضاً:
الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة
كشف باحثو الأمن السيبراني، عن كيفية استغلال نموذج الذكاء الاصطناعي الصيني من ديب سيك Deepseek-R1، في محاولات تطوير متغيرات من برامج الفدية والأدوات الرئيسية مع قدرات عالية على التهرب من الكشف.
ووفقا لتحذيرات فريق Tenable، فأن النتائج لا تعني بالضرورة بداية لحقبة جديدة من البرامج الضارة، حيث يمكن لـ Deepseek R-1 "إنشاء الهيكل الأساسي للبرامج الضارة" ولكنه يحتاج إلى مزيدا من الهندسة الموجهة ويتطلب إخراجها تعديلات يديوية لاخراج الشيفرة البرمجية الضارة بشكل كامل.
ومع ذلك، أشار نيك مايلز، من Tenable، إلى أن إنشاء برامج ضارة أساسية باستخدام Deepseek-R1، يمكن أن يساعد "شخص ليس لديه خبرة سابقة في كتابة التعليمات البرمجية الضارة" من تطوير أدوات تخريبية بسرعة، بمل في ذلك القدرة على التعرف بسرعة على فهم المفاهيم ذات الصلة.
في البداية، انخرط ديب سيك في كتابة البرامج الضارة، لكنها كانت على استعداد للقيام بذلك بعد أن طمأن الباحثين من أن توليد رمز ضار سيكون "لأغراض تعليمية فقط".
ومع ذلك، كشفت التجربة عن أن النموذج قادر على تخطي بعض تقنيات الكشف التقليدية، على سبيل المثال حاول Deepseek-R1 التغلب على آلية اكتشاف مفتاح Keylogger، عبر تحسين الكود لاستخدام Setwindowshookex وتسجيل ضربات المفاتيح في ملفات مخفية لتجنب الكشف من قبل برامج مكافحة الفيروسات.
وقال مايلز إن النموذج حاول التغلب على هذا التحدي من خلال محاولة “موازنة فائدة السنانير والتهرب من الكشف”، اختار في النهاية مقاضاة Setwindowshookex وتسجيل ضربات المفاتيح في ملف مخفي.
وقال مايلز: “بعد بعض التعديلات مع ديب سيك، أنتجت رمزا لمفتاح Keylogger الذي كان يحتوي على بعض الأخطاء التي تطلبت تصحيحا يدويا”.
وأضاف أن النتيجة كانت أربعة "أخطاء في إيقاف العرض بعيدا عن مفتاح التشغيل الكامل".
في محاولات أخرى، دفع الباحثون نموذج R1 إلى إنشاء رمز الفدية، حيث أخبر Deepseek-R1 بالمخاطر القانونية والأخلاقية المرتبطة بإنشاء مثل هذا الكود الضار، لكنه استمر في توليد عينات من البرمجيات الخبيثة بعد أن تأكد من نوايا الباحثون الحسنة.
على الرغم من أن جميع العينات كانت بحاجة إلى تعديلات يدوية من أجل التجميع، تمكنا الباحثون من إنشاء عدة عينات، وقال مايلز إن هناك احتمالية كبيرة بأن يسهم Deepseek-R1 في المزيد من تطوير البرمجيات الضارة التي تم إنشاؤه بواسطة الذكاء الاصطناعي من قبل مجرمي الإنترنت في المستقبل القريب.