تحقق الشرطة الإسبانية في تداول صور عارية لفتيات بواسطة الذكاء الاصطناعي في بلدة ألمندراليخو الصغيرة الواقعة في جنوب البلاد، مما تسبب في حالة صدمة بين الأهالي.

وأوردت صحف إسبانية وبريطانية أن الشرطة فتحت تحقيقا بعد إبلاغ أمهات بتداول صور، تم تعديلها بواسطة الذكاء الاصطناعي، لأكثر من 20 فتاة في البلدة اتي يبلغ عدد سكانها نحو 30 ألف شخص في مقاطعة بداخوث.

وقالت هيئة الإذاعة البريطانية (بي بي سي) إن هذه الصور كانت في الأصل صورا طبيعية للفتيات بملابسهن العادية وبعضها كان على حساباتهن على وسائل التواصل الاجتماعي، وتم التلاعب بها من خلال تطبيق يجرد الشخص من ملابسه.

وحتى الآن، بلغ ضحايا هذا التطبيق أكثر من 20 فتاة، تتراوح أعمارهن بين 11 و17 عاما، جميعهن استخدمن التطبيق في ألمندراليخو أو بالقرب منها.

وأوردت جريدة إلبايس حالة إيزابيل، البالغة 14 عاما، التي ذهبت إلى مدرستها ذات صباح ليخبرها زملاؤها بانتشار صور عارية لها ولزميلاتها على الهواتف.

وعندما عادت إلى منزلها، أخبرت والدتها وقالت: "يقولون إن هناك صورة عارية متداولة. لقد فعلوا ذلك باستخدام تطبيق الذكاء الاصطناعي. أنا خائفة".

وتضم ألمندراليخو 5 مدارس متوسطة، وفي أربع منها على الأقل انتشرت صور عارية تم إنشاؤها بواسطة الذكاء الاصطناعي لطالبات، وفق الصحيفة الإسبانية.

وتشير الصحيفة إلى غوميز التي أخبرتها ابنتها المراهقة أنها كانت تتحدث على إنستغرام مع صبي طلب منها "بعض المال"، وعندما رفضت أرسل لها صورتها عارية.

وتقول "بي بي سي" إن الشرطة الإسبانية تحقق الآن في الأمر، وبحسب تقارير تم تحديد حوالي 11 صبيا في البلدة، لتورطهم في تكوين الصور، و تداولها عبر تطبيقي "واتساب" و"تيليغرام".

ويرجع الفضل في إلقاء الضوء على هذه القضية إلى إحدى أمهات الفتيات، وتدعى مريم الأديب، وهي طبيبة نسائية استخدمت وسائل التواصل الاجتماعي لإثارة نقاش عام بشأن هذه القضية في إسبانيا.

وأشارت في مقطع على إنستغرام إلى أنها عندما عادت للتو من رحلة، اكتشفت أمرا "خطيرا" حدث لابنتها. وقالت إن ابنتها (14 عاما) أبلغتها بوجود صورة عارية لها وفتيات أخريات.

ولقي الفيديو تفاعلا كبيرا بعد أن حثت الطبيبة الأمهات الأخريات على الإبلاغ عما حدث لبناتهن، وعدم الخوف.

وتأتي هذه الحوادث في وقت أثارت فيه برامج الذكاء الاصطناعي، ومن بينها روبوت الدردشة "شات.جي.بي.تي"، مخاوف من تأثيرها على الخصوصية.

وفي مارس الماضي، وجه باحثون وقادة قطاع التكنولوجيا رسالة مفتوحة يحذرون فيها من "المخاطر الجسيمة" على المجتمع والإنسانية لأنظمة الذكاء الاصطناعي.

"الخطر المدهش" للذكاء الاصطناعي.. صور من دون كاميرا "صورة لوجه طفل، امرأة ترتدي معطفا أحمر، تصميم لمنزل يضاهي تصاميم زها حديد، وجه بقرة" وغيرها من الصور عرضتها صحيفة "واشنطن بوست"، والتي تكشف فيه أنها ليست صور ملتقطة بعدسة الكاميرا.

المصدر: الحرة

كلمات دلالية: الذکاء الاصطناعی

إقرأ أيضاً:

الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة

كشف باحثو الأمن السيبراني، عن كيفية استغلال نموذج الذكاء الاصطناعي الصيني من ديب سيك Deepseek-R1، في محاولات تطوير متغيرات من برامج الفدية والأدوات الرئيسية مع قدرات عالية على التهرب من الكشف.

ووفقا لتحذيرات فريق Tenable، فأن النتائج لا تعني بالضرورة بداية لحقبة جديدة من البرامج الضارة، حيث يمكن لـ Deepseek R-1 "إنشاء الهيكل الأساسي للبرامج الضارة" ولكنه يحتاج إلى مزيدا من الهندسة الموجهة ويتطلب إخراجها تعديلات يديوية لاخراج الشيفرة البرمجية الضارة بشكل كامل. 

"مانوس" هل ينافس "تشات جي بي تي" ..تطبيق صيني جديد يثير الجدل بعد " ديب سيك"|ما القصة؟بعد رفضها ديب سيك.. شراكة بين أبل وعلي باباديب سيك R1 يساهم في تطوير برامج الفدية الخبيثة

ومع ذلك، أشار نيك مايلز، من Tenable، إلى أن إنشاء برامج ضارة أساسية باستخدام Deepseek-R1، يمكن أن يساعد "شخص ليس لديه خبرة سابقة في كتابة التعليمات البرمجية الضارة" من تطوير أدوات تخريبية بسرعة، بمل في ذلك القدرة على التعرف بسرعة على فهم المفاهيم ذات الصلة.

في البداية، انخرط ديب سيك في كتابة البرامج الضارة، لكنها كانت على استعداد للقيام بذلك بعد أن طمأن الباحثين من أن توليد رمز ضار سيكون "لأغراض تعليمية فقط".

ومع ذلك، كشفت التجربة عن أن النموذج قادر على تخطي بعض تقنيات الكشف التقليدية، على سبيل المثال حاول Deepseek-R1 التغلب على آلية اكتشاف مفتاح Keylogger، عبر تحسين الكود لاستخدام Setwindowshookex وتسجيل ضربات المفاتيح في ملفات مخفية لتجنب الكشف من قبل برامج مكافحة الفيروسات.

وقال مايلز إن النموذج حاول التغلب على هذا التحدي من خلال محاولة “موازنة فائدة السنانير والتهرب من الكشف”، اختار في النهاية مقاضاة Setwindowshookex وتسجيل ضربات المفاتيح في ملف مخفي.

وقال مايلز: “بعد بعض التعديلات مع ديب سيك، أنتجت رمزا لمفتاح Keylogger الذي كان يحتوي على بعض الأخطاء التي تطلبت تصحيحا يدويا”.

وأضاف أن النتيجة كانت أربعة "أخطاء في إيقاف العرض بعيدا عن مفتاح التشغيل الكامل".

في محاولات أخرى، دفع الباحثون نموذج R1 إلى إنشاء رمز الفدية، حيث أخبر Deepseek-R1 بالمخاطر القانونية والأخلاقية المرتبطة بإنشاء مثل هذا الكود الضار، لكنه استمر في توليد عينات من البرمجيات الخبيثة بعد أن تأكد من نوايا الباحثون الحسنة.

على الرغم من أن جميع العينات كانت بحاجة إلى تعديلات يدوية من أجل التجميع، تمكنا الباحثون من إنشاء عدة عينات، وقال مايلز إن هناك احتمالية كبيرة بأن يسهم Deepseek-R1 في المزيد من تطوير البرمجيات الضارة التي تم إنشاؤه بواسطة الذكاء الاصطناعي من قبل مجرمي الإنترنت في المستقبل القريب.

مقالات مشابهة

  • هناء تطلب الخلع أمام محكمة الأسرة: بيساوم فتيات
  • الصدر يعلق على استخدام الذكاء الاصطناعي
  • الذكاء الاصطناعي يفك لغزاً علمياً استعصى على العلماء لعقد كامل
  • استشاري: الذكاء الاصطناعي يفرض تحديات على بعض الوظائف التقليدية
  • بين الابتكار والسيطرة.. هيمنة الذكاء الاصطناعي الصيني
  • أيام أقل لتدريب الموظفين الجدد بفضل الذكاء الاصطناعي
  • إيران.. إطلاق منصة وطنية لـ«الذكاء الاصطناعي»
  • النمو السريع في سوق الذكاء الاصطناعي يعقّد مهمة المستثمرين
  • الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة
  • الذكاء الاصطناعي والدخول إلى خصوصيات البشر