إصدار جديد من أوبن إيه آي لإنشاء الصور باستخدام الذكاء الاصطناعي
تاريخ النشر: 21st, September 2023 GMT
كشفت شركة "أوبن إيه آي" النقاب عن برنامجها "دال- إيه 3″، وهو الإصدار الأحدث من أداة تحويل النص إلى صورة، والتي تستخدم برنامج الدردشة الآلي الشهير "شات جي بي تي".
وقالت الشركة إن "دال- إيه 3" سيكون متاحا لعملاء "شات جي بي تي بلس" و"إنتربرايز" في أكتوبر/تشرين الأول، وأوضحت في بيان "يمكن لـ دال- إيه 3 ترجمة الأوامر الدقيقة إلى صور مفصلة للغاية".
وأشارت إلى أن الإصدار الأخير سيحتوي على المزيد من الضمانات التي تراعي القيم الأخلاقية، مثل الحد من قدرتها على إنشاء محتوى عنيف أو يحض على الكراهية.
وقد ضم أيضا قوانين تساعد على رفض الطلبات التي تطلب صورا لشخصيات عامة بالاسم، أو تلك التي تطلب صورا بأسلوب فنان حي، وذلك في مسعى لضمان حقوق الملكية الفكرية.
وقالت "أوبن إيه آي" إن المبدعين لديهم الحق في إلغاء ميزة استخدام بعض أو كل أعمالهم المستخدمة لتدريب أدوات تحويل النص إلى صورة في المستقبل.
وتحاول "أوبن إيه آي" المشهورة بإنشاء أدوات ذكاء اصطناعي دقيقة لتحويل النص إلى صورة الفوز بهذا المجال أمام العديد من المنافسين، أبرزهم "تونغي" من "علي بابا" و"ميدجيرني" و"ستابيلتي إيه آي"، والذين يعملون على تحسين نماذجهم لتوليد الصور.
ومع ذلك، هناك العديد من المخاوف بشأن الصور التي ينشئها الذكاء الاصطناعي، حيث قضت محكمة بواشنطن في أغسطس/آب الماضي بأن العمل الفني الذي أنشأه الذكاء الاصطناعي دون أي مساهمة بشرية لا يمكن أن يتمتع بحقوق الطبع والنشر بموجب القانون الأميركي.
كما تواجه "أوبن إيه آي" العديد من الدعاوى القضائية، حيث رفعت مجموعة تجارية للمؤلفين الأميركيين مؤخرا دعوى قضائية نيابة عن كتاب من بينهم جون غريشام وروائي "لعبة العروش" جورج آر آر مارتن، متهمين الشركة بتدريب برنامج الدردشة "شات جي بي تي" بشكل غير قانوني على أعمالهم دون إذن.
المصدر: الجزيرة
كلمات دلالية: أوبن إیه آی
إقرأ أيضاً:
الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة
كشف باحثو الأمن السيبراني، عن كيفية استغلال نموذج الذكاء الاصطناعي الصيني من ديب سيك Deepseek-R1، في محاولات تطوير متغيرات من برامج الفدية والأدوات الرئيسية مع قدرات عالية على التهرب من الكشف.
ووفقا لتحذيرات فريق Tenable، فأن النتائج لا تعني بالضرورة بداية لحقبة جديدة من البرامج الضارة، حيث يمكن لـ Deepseek R-1 "إنشاء الهيكل الأساسي للبرامج الضارة" ولكنه يحتاج إلى مزيدا من الهندسة الموجهة ويتطلب إخراجها تعديلات يديوية لاخراج الشيفرة البرمجية الضارة بشكل كامل.
ومع ذلك، أشار نيك مايلز، من Tenable، إلى أن إنشاء برامج ضارة أساسية باستخدام Deepseek-R1، يمكن أن يساعد "شخص ليس لديه خبرة سابقة في كتابة التعليمات البرمجية الضارة" من تطوير أدوات تخريبية بسرعة، بمل في ذلك القدرة على التعرف بسرعة على فهم المفاهيم ذات الصلة.
في البداية، انخرط ديب سيك في كتابة البرامج الضارة، لكنها كانت على استعداد للقيام بذلك بعد أن طمأن الباحثين من أن توليد رمز ضار سيكون "لأغراض تعليمية فقط".
ومع ذلك، كشفت التجربة عن أن النموذج قادر على تخطي بعض تقنيات الكشف التقليدية، على سبيل المثال حاول Deepseek-R1 التغلب على آلية اكتشاف مفتاح Keylogger، عبر تحسين الكود لاستخدام Setwindowshookex وتسجيل ضربات المفاتيح في ملفات مخفية لتجنب الكشف من قبل برامج مكافحة الفيروسات.
وقال مايلز إن النموذج حاول التغلب على هذا التحدي من خلال محاولة “موازنة فائدة السنانير والتهرب من الكشف”، اختار في النهاية مقاضاة Setwindowshookex وتسجيل ضربات المفاتيح في ملف مخفي.
وقال مايلز: “بعد بعض التعديلات مع ديب سيك، أنتجت رمزا لمفتاح Keylogger الذي كان يحتوي على بعض الأخطاء التي تطلبت تصحيحا يدويا”.
وأضاف أن النتيجة كانت أربعة "أخطاء في إيقاف العرض بعيدا عن مفتاح التشغيل الكامل".
في محاولات أخرى، دفع الباحثون نموذج R1 إلى إنشاء رمز الفدية، حيث أخبر Deepseek-R1 بالمخاطر القانونية والأخلاقية المرتبطة بإنشاء مثل هذا الكود الضار، لكنه استمر في توليد عينات من البرمجيات الخبيثة بعد أن تأكد من نوايا الباحثون الحسنة.
على الرغم من أن جميع العينات كانت بحاجة إلى تعديلات يدوية من أجل التجميع، تمكنا الباحثون من إنشاء عدة عينات، وقال مايلز إن هناك احتمالية كبيرة بأن يسهم Deepseek-R1 في المزيد من تطوير البرمجيات الضارة التي تم إنشاؤه بواسطة الذكاء الاصطناعي من قبل مجرمي الإنترنت في المستقبل القريب.