منع التزييف العميق للصور الحميمة.. الكونغرس يتحرك
تاريخ النشر: 17th, January 2024 GMT
يعتزم مجلس النواب الأميركي تشريع قانون جديد يعتبر بموجبه مشاركة الصور الإباحية المفبركة باستخدام تقنية الذكاء الاصطناعي جريمة فيدرالية.
وأعاد النائب الديمقراطي جوزيف موريل، الثلاثاء، طرح مقترح القانون الجديد المعروف باسم "قانون منع التزييف العميق للصور الحميمة"، في مجلس النواب، بعد أن أضاف له نائب آخر وهو الجمهوري توم كين، كراعٍ مشارك للقانون.
وتأتي هذه الخطوة من قبل الحزبين ردا على حادث وقع في مدرسة ثانوية بولاية نيوجيرزي جرى من خلالها مشاركة صور عارية تم إنشاؤها بواسطة الذكاء الاصطناعي لطالبات من دون موافقتهن.
ويمكن لبرامج تعمل بالذكاء الاصطناعي، أن تصمم صورا عارية بناء على تحليلات للصور العادية المنشورة على مواقع التواصل الاجتماعي، مما يجعلها تبدو وكأنها حقيقية بدرجة كبيرة ومتناسقة.
ويؤكد خبراء الذكاء الاصطناعي أن هناك الآن العشرات من البرامج المجانية التي يمكن من خلالها تبديل الوجه وإزالة الملابس من الصور الحقيقية، حيث من الصعب على العين البشرية التمييز بين الحقيقي والمزيف.
ومن المشكلات التي تواجه الضحايا عدم وجود قانون فيدرالي في الكثير من الولايات للتعامل مع مثل هذه الأدوات الجديدة.
وبحسب صحيفة "وول ستريت جورنال" فإن ولايات قليلة جدا هي من وضعت لوائح منظمة، من بينها فرجينيا وكاليفورنيا ومينيسوتا ونيويورك.
وبالإضافة إلى جعل مشاركة الصور الحميمية المعدلة رقميا جريمة جنائية، فإن التشريع الذي اقترحه موريل وكين سيسمح أيضا للضحايا بمقاضاة الجناة في محكمة مدنية.
وقال موريل في بيان: "دعونا لا ننتظر الحادث الجماعي التالي حتى نتصدر الأخبار.. هذا يحدث كل يوم للنساء في كل مكان".
وكانت دراسة نشرت عام 2019 لشركة "سينسيتي" للذكاء الاصطناعي، المخصصة في رقابة المقاطع المزيفة، أشارت إلى أن "96 بالمئة من مواد التزييف العميق كانت إباحية، و99 بالمئة منها تستهدف النساء".
المصدر: الحرة
إقرأ أيضاً:
نسب احتيال تصل 60%.. الذكاء الاصطناعي يهدد الأمن الرقمي
تابع أحدث الأخبار عبر تطبيق
يواصل الذكاء الاصطناعي تحقيق تقدم مذهل في مختلف المجالات، إلا أن هناك جانبًا مظلمًا لهذا التطور، خاصة فيما يتعلق بالمخاطر الأمنية التي قد يتسبب فيها، فقد أظهرت دراسة حديثة أن واجهة البرمجة الصوتية الخاصة بنموذج ChatGPT-4o من OpenAI قد تُستغل من قبل مجرمي الإنترنت لتنفيذ عمليات احتيال مالي، ووفقًا لما أوردته "البوابة العربية للأخبار التقنية"، فقد تراوحت معدلات نجاح هذه العمليات بين منخفضة ومتوسطة، مما يسلط الضوء على الحاجة الماسة لتطوير آليات أمان أكثر تطورًا.
استخدامات غير مشروعة لنموذج ChatGPT-4oيُعتبر ChatGPT-4o أحدث نموذج من OpenAI الذي يجمع بين قدرات الذكاء الاصطناعي في فهم وتحليل النصوص والصوت والصور، مما يمنحه إمكانيات هائلة، إلا أن هذه القدرات، حسب ما ذكر باحثون من جامعة إلينوي الأمريكية، تُستغل أحيانًا في عمليات احتيال، حيث تُستخدم أدوات تكنولوجيا الصوت التي يعتمد عليها النموذج في اختراق أنظمة المصادقة الثنائية، وإجراء عمليات تحويل مالية مزورة، فضلاً عن سرقة البيانات الحساسة مثل حسابات البريد الإلكتروني ووسائل التواصل الاجتماعي.
هذه الأدوات البرمجية التي تستخدم الصوت، تمكن المهاجمين من التلاعب في البيانات وإدخال التعليمات اللازمة عبر الويب، ما يسمح لهم بتجاوز بعض القيود التي وضعتها OpenAI للحد من إساءة استخدام النموذج، وعلى الرغم من أن النموذج يُرفض غالبًا التعامل مع البيانات الحساسة، فإن الباحثين نجحوا في إيجاد طرق لتحفيزه على التجاوب مع هذه المحاولات.
نتائج الدراسة: عمليات احتيال "رخيصة" وفعالةفي التجارب التي أُجريت، أظهر الباحثون أن معدلات نجاح عمليات الاحتيال تراوحت بين 20% و60%، مع حاجة كل محاولة إلى نحو 26 خطوة عبر المتصفح لإتمام العملية، ما استغرق في الحالات الأكثر تعقيدًا حوالي 3 دقائق فقط، ومن حيث التكلفة، أظهرت النتائج أن تكلفة تنفيذ عملية احتيال واحدة كانت منخفضة للغاية، إذ تراوحت بين 75 سنتًا أميركيًا للعمليات البسيطة مثل سرقة بيانات حسابات Gmail، و2.51 دولار فقط في عمليات التحويل المصرفي الأكثر تعقيدًا.
استجابة OpenAI والتحديات المستقبليةوفي رد فعلها على هذه الدراسة، أكدت OpenAI أنها تبذل جهودًا مستمرة لتحسين الأمان في نماذجها المستقبلية، وأشارت إلى أن النموذج الأحدث "o1-preview" يتمتع بقدرات متقدمة في مقاومة محاولات الاحتيال، حيث حقق تقييم أمان بنسبة 93% مقارنة بـ71% في النموذج السابق، كما أضافت الشركة أنها ملتزمة بتطوير آليات أكثر قوة لمنع الاستخدامات الضارة، بما في ذلك تقييد توليد الأصوات في نموذج GPT-4o إلى مجموعة أصوات مصرح بها فقط لتجنب التزييف الصوتي.