مواقع الويب تتهم Anthropic الناشئة في الذكاء الاصطناعي بتجاوز قواعدها
تاريخ النشر: 28th, July 2024 GMT
اتهم Freelancer شركة Anthropic، وهي شركة الذكاء الاصطناعي الناشئة التي تقف وراء نماذج لغة Claude الكبيرة، بتجاهل بروتوكول "عدم الزحف" الخاص بها robots.txt لكشط بيانات مواقع الويب الخاصة بها. وفي الوقت نفسه، قال الرئيس التنفيذي لشركة iFixit كايل وينز إن Anthropic تجاهلت سياسة الموقع التي تحظر استخدام محتواها لتدريب نموذج الذكاء الاصطناعي.
في يونيو الماضي، اتهمت Wired شركة ذكاء اصطناعي أخرى، Perplexity، بتتبع موقعها على الويب على الرغم من وجود بروتوكول استبعاد الروبوتات، أو robots.txt. يحتوي ملف robots.txt عادةً على تعليمات لبرامج الزحف على الويب حول الصفحات التي يمكنها الوصول إليها والصفحات التي لا يمكنها الوصول إليها. في حين أن الامتثال طوعي، إلا أنه تم تجاهله في الغالب من قبل الروبوتات السيئة. بعد نشر مقال Wired، ذكرت شركة ناشئة تسمى TollBit تربط شركات الذكاء الاصطناعي بناشري المحتوى أن Perplexity ليست هي الوحيدة التي تتجاوز إشارات robots.txt. وبينما لم تذكر أسماء، قالت Business Insider إنها علمت أن OpenAI وAnthropic يتجاهلان البروتوكول أيضًا.
قال باري إن Freelancer حاول رفض طلبات وصول الروبوت في البداية، لكنه اضطر في النهاية إلى حظر برنامج الزحف الخاص بـ Anthropic بالكامل. "هذا كشط فظيع [يجعل] الموقع أبطأ لكل من يعمل عليه ويؤثر في النهاية على إيراداتنا"، أضاف. أما بالنسبة لـ iFixit، قال وينز إن الموقع قد ضبط تنبيهات لحركة مرور عالية، واستيقظ موظفوه في الساعة 3 صباحًا بسبب أنشطة Anthropic. توقف برنامج الزحف الخاص بالشركة عن كشط iFixit بعد أن أضاف سطرًا في ملف robots.txt الخاص به يحظر روبوت Anthropic، على وجه الخصوص.
أخبرت شركة الذكاء الاصطناعي الناشئة The Information أنها تحترم ملف robots.txt وأن برنامج الزحف الخاص بها "احترم هذه الإشارة عندما نفذته iFixit". كما قالت إنها تهدف إلى "الحد الأدنى من الاضطراب من خلال التفكير في مدى سرعة [زحفها] إلى نفس المجالات"، وهذا هو السبب في أنها تحقق الآن في القضية.
تستخدم شركات الذكاء الاصطناعي برامج الزحف لجمع المحتوى من مواقع الويب التي يمكنها استخدامها لتدريب تقنيات الذكاء الاصطناعي التوليدية الخاصة بها. لقد كانوا هدفًا لدعاوى قضائية متعددة نتيجة لذلك، حيث اتهمهم الناشرون بانتهاك حقوق النشر. ولمنع رفع المزيد من الدعاوى القضائية، كانت شركات مثل OpenAI تبرم صفقات مع الناشرين ومواقع الويب. ومن بين شركاء المحتوى في OpenAI، حتى الآن، News Corp وVox Media وFinancial Times وReddit. ويبدو أن Wiens من iFixit منفتح على فكرة توقيع صفقة لمقالات موقع الويب الخاص بكيفية الإصلاح أيضًا، حيث أخبر Anthropic في تغريدة أنه على استعداد لإجراء محادثة حول ترخيص المحتوى للاستخدام التجاري.
المصدر: بوابة الوفد
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة
كشف باحثو الأمن السيبراني، عن كيفية استغلال نموذج الذكاء الاصطناعي الصيني من ديب سيك Deepseek-R1، في محاولات تطوير متغيرات من برامج الفدية والأدوات الرئيسية مع قدرات عالية على التهرب من الكشف.
ووفقا لتحذيرات فريق Tenable، فأن النتائج لا تعني بالضرورة بداية لحقبة جديدة من البرامج الضارة، حيث يمكن لـ Deepseek R-1 "إنشاء الهيكل الأساسي للبرامج الضارة" ولكنه يحتاج إلى مزيدا من الهندسة الموجهة ويتطلب إخراجها تعديلات يديوية لاخراج الشيفرة البرمجية الضارة بشكل كامل.
ومع ذلك، أشار نيك مايلز، من Tenable، إلى أن إنشاء برامج ضارة أساسية باستخدام Deepseek-R1، يمكن أن يساعد "شخص ليس لديه خبرة سابقة في كتابة التعليمات البرمجية الضارة" من تطوير أدوات تخريبية بسرعة، بمل في ذلك القدرة على التعرف بسرعة على فهم المفاهيم ذات الصلة.
في البداية، انخرط ديب سيك في كتابة البرامج الضارة، لكنها كانت على استعداد للقيام بذلك بعد أن طمأن الباحثين من أن توليد رمز ضار سيكون "لأغراض تعليمية فقط".
ومع ذلك، كشفت التجربة عن أن النموذج قادر على تخطي بعض تقنيات الكشف التقليدية، على سبيل المثال حاول Deepseek-R1 التغلب على آلية اكتشاف مفتاح Keylogger، عبر تحسين الكود لاستخدام Setwindowshookex وتسجيل ضربات المفاتيح في ملفات مخفية لتجنب الكشف من قبل برامج مكافحة الفيروسات.
وقال مايلز إن النموذج حاول التغلب على هذا التحدي من خلال محاولة “موازنة فائدة السنانير والتهرب من الكشف”، اختار في النهاية مقاضاة Setwindowshookex وتسجيل ضربات المفاتيح في ملف مخفي.
وقال مايلز: “بعد بعض التعديلات مع ديب سيك، أنتجت رمزا لمفتاح Keylogger الذي كان يحتوي على بعض الأخطاء التي تطلبت تصحيحا يدويا”.
وأضاف أن النتيجة كانت أربعة "أخطاء في إيقاف العرض بعيدا عن مفتاح التشغيل الكامل".
في محاولات أخرى، دفع الباحثون نموذج R1 إلى إنشاء رمز الفدية، حيث أخبر Deepseek-R1 بالمخاطر القانونية والأخلاقية المرتبطة بإنشاء مثل هذا الكود الضار، لكنه استمر في توليد عينات من البرمجيات الخبيثة بعد أن تأكد من نوايا الباحثون الحسنة.
على الرغم من أن جميع العينات كانت بحاجة إلى تعديلات يدوية من أجل التجميع، تمكنا الباحثون من إنشاء عدة عينات، وقال مايلز إن هناك احتمالية كبيرة بأن يسهم Deepseek-R1 في المزيد من تطوير البرمجيات الضارة التي تم إنشاؤه بواسطة الذكاء الاصطناعي من قبل مجرمي الإنترنت في المستقبل القريب.