المناطق_متابعات

قررت شركة “ميتا”، المالكة لتطبيقات واتساب وإنستغرام وفيسبوك، وضع علامة لتمييز الصور المصممة بتقنية الذكاء الاصطناعي عبر شبكاتها الاجتماعية في الأشهر المقبلة، وذلك ضمن مبادرة تكنولوجية لفرز ما هو حقيقي وما هو غير حقيقي.

 

أخبار قد تهمك المركز الوطني لتنمية القطاع غير الربحي يطلق خدمة “تبرّع بأمان” 8 فبراير 2024 - 8:34 صباحًا “الشامبو” يسبب “الولادة المبكرة” 8 فبراير 2024 - 8:21 صباحًا“وضع معايير”

وقالت ميتا، الثلاثاء، إنها تعمل مع شركاء الصناعة على وضع المعايير الفنية التي ستسهل التعرف على الصور والمقاطع المصورة والصوتية الناتجة عن أدوات الذكاء الاصطناعي.

صور عارية لمشاهير

ويتابع محللون عن كثب لتقدير مدى نجاح هذه التجربة في الوقت الذي أصبح فيه من السهل للغاية إنشاء وتوزيع صور عبر وسائل الذكاء الاصطناعي يمكن أن تسبب ضررا، ومن ذلك أي معلومات سياسية مضللة إلى تصميم صور عارية مزيفة لمشاهير بدون موافقتهم.

وقالت جيلي فيدان، الأستاذة المساعدة في تكنولوجيا المعلومات بجامعة كورنيل، “هذه الخطوة إشارة إلى أنهم يولون اهتماما كبيرا لخطورة توليد محتوى مزيف عبر الإنترنت، وأن ذلك يمثل مشكلة لمنصاتهم”.

خطوة فعالة.. ولكن

كما أضافت “قد تكون هذه الخطوة فعالة للغاية في الإبلاغ عن جزء كبير من المحتوى الكاذب الناتج عن الذكاء الاصطناعي، لكن من غير المرجح أن يكشف ذلك عن كل شيء”.

فيما لم يحدد نيك كليغ، رئيس الشؤون الدولية في ميتا، يوم الثلاثاء، موعد بدء ظهور هذه العلامات، لكنه قال إنها ستتوفر خلال الأشهر المقبلة وستكون بلغات مختلفة، مشيرا إلى إجراء “عدد من الانتخابات المهمة حول العالم”.

الفرق غير واضح

وقال “بينما بات الفرق بين المحتوى البشري والاصطناعي غير واضح، يريد الناس معرفة أين تقع الحدود” وفقا لـ “العربية”.

وكانت ميتا بدأت في تطبيق مثل هذه التصنيفات على صور مبتكرة باستخدام أداة “ميتا إيه آي” ( للذكاء الاصطناعي) التابعة لها منذ إطلاقها في ديسمبر/ كانون أول الماضي.

تأتي هذه الخطوة في وقت يثير ازدهار الذكاء الاصطناعي مخاوف من إقدام أشخاص على استخدامه لإثارة فوضى سياسية من خلال التضليل الإعلامي أو نشر معلومات كاذبة في الأوقات التي تسبق عدة انتخابات حاسمة ستجرى خلال هذا العام في عدة دول.

8 فبراير 2024 - 8:31 صباحًا شاركها فيسبوك X لينكدإن ماسنجر ماسنجر أقرأ التالي أبرز المواد8 فبراير 2024 - 8:13 صباحًاالمركز الوطني للأرصاد : تكون ضباب كثيف على منطقة جازان أبرز المواد8 فبراير 2024 - 8:00 صباحًاالمركز الوطني للأرصاد : أتربة مثارة على منطقة المدينة المنورة أبرز المواد8 فبراير 2024 - 7:58 صباحًاميدان الفروسية بالمدينة المنورة يقيم الحفل الحادي عشر لسباقات الخيل.. غداً أبرز المواد8 فبراير 2024 - 7:46 صباحًاانتخابات باكستان.. تعليق خدمات الهواتف المحمولة مع انطلاق التصويت أبرز المواد8 فبراير 2024 - 7:43 صباحًاالنفط يرتفع بعد دعم مؤشرات على قوة الطلب على الوقود في أمريكا8 فبراير 2024 - 8:13 صباحًاالمركز الوطني للأرصاد : تكون ضباب كثيف على منطقة جازان8 فبراير 2024 - 8:00 صباحًاالمركز الوطني للأرصاد : أتربة مثارة على منطقة المدينة المنورة8 فبراير 2024 - 7:58 صباحًاميدان الفروسية بالمدينة المنورة يقيم الحفل الحادي عشر لسباقات الخيل.. غداً8 فبراير 2024 - 7:46 صباحًاانتخابات باكستان.. تعليق خدمات الهواتف المحمولة مع انطلاق التصويت8 فبراير 2024 - 7:43 صباحًاالنفط يرتفع بعد دعم مؤشرات على قوة الطلب على الوقود في أمريكا "الشامبو" يسبب "الولادة المبكرة" المركز الوطني لتنمية القطاع غير الربحي يطلق خدمة "تبرّع بأمان" تابعنا على تويتـــــرTweets by AlMnatiq تابعنا على فيسبوك تابعنا على فيسبوكالأكثر مشاهدة الفوائد الاجتماعية للإسكان التعاوني 4 أغسطس 2022 - 11:10 مساءً بث مباشر مباراة الهلال وريال مدريد بكأس العالم للأندية 11 فبراير 2023 - 1:45 مساءً اليوم.. “حساب المواطن” يبدأ في صرف مستحقات المستفيدين من الدعم لدفعة يناير الجاري 10 يناير 2023 - 8:12 صباحًا جميع الحقوق محفوظة لجوال وصحيفة المناطق © حقوق النشر 2024   |   تطوير سيكيور هوست | مُستضاف بفخر لدى سيكيورهوستفيسبوكXيوتيوبانستقرامواتساب فيسبوك X ماسنجر ماسنجر واتساب تيلقرام زر الذهاب إلى الأعلى إغلاق البحث عن: فيسبوكXيوتيوبانستقرامواتساب إغلاق بحث عن إغلاق بحث عن

المصدر: صحيفة المناطق السعودية

كلمات دلالية: أبرز المواد8 فبرایر 2024 الذکاء الاصطناعی على منطقة صباح ا

إقرأ أيضاً:

الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة

كشف باحثو الأمن السيبراني، عن كيفية استغلال نموذج الذكاء الاصطناعي الصيني من ديب سيك Deepseek-R1، في محاولات تطوير متغيرات من برامج الفدية والأدوات الرئيسية مع قدرات عالية على التهرب من الكشف.

ووفقا لتحذيرات فريق Tenable، فأن النتائج لا تعني بالضرورة بداية لحقبة جديدة من البرامج الضارة، حيث يمكن لـ Deepseek R-1 "إنشاء الهيكل الأساسي للبرامج الضارة" ولكنه يحتاج إلى مزيدا من الهندسة الموجهة ويتطلب إخراجها تعديلات يديوية لاخراج الشيفرة البرمجية الضارة بشكل كامل. 

"مانوس" هل ينافس "تشات جي بي تي" ..تطبيق صيني جديد يثير الجدل بعد " ديب سيك"|ما القصة؟بعد رفضها ديب سيك.. شراكة بين أبل وعلي باباديب سيك R1 يساهم في تطوير برامج الفدية الخبيثة

ومع ذلك، أشار نيك مايلز، من Tenable، إلى أن إنشاء برامج ضارة أساسية باستخدام Deepseek-R1، يمكن أن يساعد "شخص ليس لديه خبرة سابقة في كتابة التعليمات البرمجية الضارة" من تطوير أدوات تخريبية بسرعة، بمل في ذلك القدرة على التعرف بسرعة على فهم المفاهيم ذات الصلة.

في البداية، انخرط ديب سيك في كتابة البرامج الضارة، لكنها كانت على استعداد للقيام بذلك بعد أن طمأن الباحثين من أن توليد رمز ضار سيكون "لأغراض تعليمية فقط".

ومع ذلك، كشفت التجربة عن أن النموذج قادر على تخطي بعض تقنيات الكشف التقليدية، على سبيل المثال حاول Deepseek-R1 التغلب على آلية اكتشاف مفتاح Keylogger، عبر تحسين الكود لاستخدام Setwindowshookex وتسجيل ضربات المفاتيح في ملفات مخفية لتجنب الكشف من قبل برامج مكافحة الفيروسات.

وقال مايلز إن النموذج حاول التغلب على هذا التحدي من خلال محاولة “موازنة فائدة السنانير والتهرب من الكشف”، اختار في النهاية مقاضاة Setwindowshookex وتسجيل ضربات المفاتيح في ملف مخفي.

وقال مايلز: “بعد بعض التعديلات مع ديب سيك، أنتجت رمزا لمفتاح Keylogger الذي كان يحتوي على بعض الأخطاء التي تطلبت تصحيحا يدويا”.

وأضاف أن النتيجة كانت أربعة "أخطاء في إيقاف العرض بعيدا عن مفتاح التشغيل الكامل".

في محاولات أخرى، دفع الباحثون نموذج R1 إلى إنشاء رمز الفدية، حيث أخبر Deepseek-R1 بالمخاطر القانونية والأخلاقية المرتبطة بإنشاء مثل هذا الكود الضار، لكنه استمر في توليد عينات من البرمجيات الخبيثة بعد أن تأكد من نوايا الباحثون الحسنة.

على الرغم من أن جميع العينات كانت بحاجة إلى تعديلات يدوية من أجل التجميع، تمكنا الباحثون من إنشاء عدة عينات، وقال مايلز إن هناك احتمالية كبيرة بأن يسهم Deepseek-R1 في المزيد من تطوير البرمجيات الضارة التي تم إنشاؤه بواسطة الذكاء الاصطناعي من قبل مجرمي الإنترنت في المستقبل القريب.

مقالات مشابهة

  • استشاري: الذكاء الاصطناعي يفرض تحديات على بعض الوظائف التقليدية
  • بين الابتكار والسيطرة.. هيمنة الذكاء الاصطناعي الصيني
  • التخطيط القومي يعقد الحلقة السادسة حول تقرير مؤشر الذكاء الاصطناعي 2024
  • أيام أقل لتدريب الموظفين الجدد بفضل الذكاء الاصطناعي
  • إيران.. إطلاق منصة وطنية لـ«الذكاء الاصطناعي»
  • النمو السريع في سوق الذكاء الاصطناعي يعقّد مهمة المستثمرين
  • الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة
  • الذكاء الاصطناعي والدخول إلى خصوصيات البشر
  • الجديد وصل .. جوجل تتحدى آبل في مجال الذكاء الاصطناعي الشخصي
  • الصين تدخل الذكاء الاصطناعي إلى مناهج الابتدائية