تجسس وابتزاز وخطف وهمي.. كيف جعل الذكاء الاصطناعي عالم الجريمة أكثر خطرا وقربا من الناس؟
تاريخ النشر: 13th, August 2023 GMT
رغم أن التطور المستمر في التكنولوجيا يسهّل حياة الإنسان، ويمكن أن يقدم خدمات جليلة للبشرية، فإنه يبقى "سلاحا ذو حدين".
وسلطت شبكة "سكاي نيوز" البريطانية في تقرير لها، الضوء على الذكاء الاصطناعي، وكيف يمكن أن يغير من مستقبل الجريمة في العالم.
ومن الهجمات الإرهابية وإساءة معاملة الأطفال إلى مؤامرات الابتزاز والخطف والاحتيال والتجسس على الشركات، تأتي ثورة الذكاء الاصطناعي بخطر كبير، تماما كما هو الحال مع الفوائد العظيمة التي تقدمها هذه التقنية.
وفيما يلي، استعراض للطرق التي يتم بها استغلال الذكاء الاصطناعي في عالم الجريمة، والتي يحذر خبراء حول العالم منها ويدعون إلى اتخاذ الحيطة بشأنها:
محتوى إرهابيتتيح بعض تطبيقات الذكاء الاصطناعي النقاش مع الأشخاص حتى في المحتوى المتطرف من خلال البرامج التي تتعلم أساليب المستخدمين لتقليدهم، مما يؤدي إلى تبادل الأفكار والنقاشات التي يمكن أن تؤدي إلى أعمال إرهابية.
وتمثل برامج الدردشة باستخدام الذكاء الاصطناعي "المرحلة التالية" بالنسبة للأشخاص الذين يجدون متطرفين متشابهين في التفكير عبر الإنترنت، كما قال المراجع الحكومي المستقل لقانون الإرهاب، جوناثان هول كيه سي، لشبكة "سكاي نيوز".
"تجنيد الإرهابيين".. مخاوف من مخاطر محتملة للذكاء الاصطناعي حذر خبراء مراقبة الإرهاب من خطورة الذكاء الاصطناعي على الأمن القومي للدول، وسط مخاوف من إمكانية استخدام هذه التكنولوجيا الجديدة للسيطرة على أفكار الأشخاص البسطاء، وفقا لصحيفة "غارديان".وذكرت الصحيفة في تقرير، الأحد، أن هيئة مراقبة الإرهاب في بريطانيا طالبت مبتكري الذكاء الاصطناعي بضرورة وضع ضوابط للاستخدام، واتباع قواعد الشفافية من خلال الكشف عن العاملين على هذه التكنولوجيا وتفاصيلها.
وحذر من أن التشريع الحكومي الرئيسي للسلامة على الإنترنت - مشروع قانون الأمان على الإنترنت - سيجد أنه "من المستحيل" التعامل مع محتوى الإرهاب الناتج عن الذكاء الاصطناعي.
وسيضع القانون المسؤولية على الشركات لإزالة المحتوى الإرهابي، لكن عملياتها تعتمد عموما على قواعد بيانات المواد المعروفة، والتي لن تلتقط الخطاب الجديد الذي تم إنشاؤه بواسطة روبوت محادثة للذكاء الاصطناعي.
وقال هول كيه سي: "أعتقد أننا نسير نائمين بالفعل في موقف مشابه للأيام الأولى لوسائل التواصل الاجتماعي، حيث تعتقد أنك تتعامل مع شيء منظم، ولكنه ليس كذلك".
وتابع: "قبل أن نبدأ في الحميل ومنحها للأطفال ودمجها في حياتنا (برامج وتطبيقات الذكاء الاصطناعي)، نحتاج إلى معرفة الضمانات في الممارسة العملية - ليس فقط الشروط والأحكام - ولكن من الذي يقوم بتنفيذها وكيف!".
التزييف العميق ومؤامرات الابتزازيتم استغلال تقنيات الذكاء الاصطناعي في "التزييف العميق" للصور أو مقاطع الفيديو، والتي يمكن أن تُظهر شخصا ما يفعل شيئا لم يفعله، مما يؤدي إلى تنفيذ مؤامرات ابتزاز.
ويمكن تركيب وجه شخص في مقطع مزيف، بما في ذلك القدرة على وضع وجه جديد على فيديو إباحي.
"الخطر المدهش" للذكاء الاصطناعي.. صور من دون كاميرا "صورة لوجه طفل، امرأة ترتدي معطفا أحمر، تصميم لمنزل يضاهي تصاميم زها حديد، وجه بقرة" وغيرها من الصور عرضتها صحيفة "واشنطن بوست"، والتي تكشف فيه أنها ليست صور ملتقطة بعدسة الكاميرا.وقال البروفيسور لويس غريفين، أحد مؤلفي ورقة بحثية نشرها مركز "داوس" للجريمة المستقبلية بجامعة "يونيفيرسيتي كوليدج" لندن عام 2020، والتي صنفت الاستخدامات غير القانونية المحتملة للذكاء الاصطناعي، "إنه أمر مزعج للغاية".
وحذر من أنه يتم استخدام هذه التقنية "لاستغلال الأطفال"، موضحا: "إساءة معاملة الأطفال باستخدام الذكاء الاصطناعي مرعبة، ويمكنهم فعل ذلك الآن".
وأضاف: "يمكنك تخيل أن يرسل شخص ما مقطع فيديو إلى أحد الوالدين، يظهر طفلهما بوضع مخل، ويهدد بنشره".
سرقة الأموال الكبيرةوقد يكون من الممكن قريبا ظهور "مجموعة جديدة من الجرائم" مع ظهور نماذج لغة كبيرة من برامج الذكاء الاصطناعي، يمكنها الانتقال إلى مواقع الويب والتصرف "كشخص ذكي" بناء على أوامر من المستخدم، من خلال إنشاء حسابات وملء النماذج وشراء أشياء، حسبما يقول غريفين.
وتابع: "بمجرد أن يكون لديك نظام للقيام بذلك، بمجرد أن تقول هذا ما أريدك أن تفعله، فهناك كل أنواع الأشياء الاحتيالية التي يمكن القيام بها على هذا النحو".
وأشار إلى أن سوء الاستخدام قد يدفع البعض للتقدم بطلب للحصول على قروض احتيالية، والتلاعب بالأسعار من خلال الظهور بمظهر "مستثمرين صغار".
حيل الخطف وانتحال الهويةوباستخدام هذه التقنية أيضا، يمكن للمحتالين أن يستغلوا تقنية تركيب الأصوات لانتحال هوية شخص آخر، لاستخدامها في عمليات خطف وهمية.
على سبيل المثال، قد يستغل المجرمون تركيب بصمة الصوت لشخص ما، للاتصال بذويه وإبلاغهم بأنه مخطوف، مطالبا بدفع مبلغ معين كفدية لإطلاق سراحه.
تفاصيل الخطة الأوروبية لتنظيم الذكاء الاصطناعي بعد الجدل الذي أثاره الذكاء الاصطناعي على مستوى العالم، بدأت هيئات تشريعية بتمرير قوانين في محاولة منها لمواجهة الخطر القادم من التكنولوجيا المتطورة.وأشار غريفين إلى أن انتحال الهوية الصوتية أو المرئية لشخص، "زادت بشكل أسرع بكثير مما كان متوقعا".
وفي عام 2019، قام الرئيس التنفيذي لشركة طاقة مقرها المملكة المتحدة، بتحويل 220 ألف يورو (241.2 ألف دولار أميركي) إلى محتالين يستخدمون الذكاء الاصطناعي لانتحال شخصية رئيسه، وفقا للتقارير.
وقال غريفين إن مثل هذه الحيل "يمكن أن تكون أكثر فاعلية إذا تم دعمها بالفيديو، ويمكن استخدام التكنولوجيا للتجسس على الشركات، مع ظهور موظف مخادع في في اجتماع عبر "زوم" للحصول على معلومات، دون الحاجة إلى قول الكثير.
وأضاف أن عمليات الاحتيال هذه يمكن أن تزداد على نطاق واسع، مع احتمال أن تكون الروبوتات التي تستخدم لهجة محلية أكثر فاعلية في خداع الناس من المحتالين الذين يديرون حاليا المؤسسات الإجرامية التي تعمل من دول آسيوية.
المصدر: الحرة
كلمات دلالية: الذکاء الاصطناعی للذکاء الاصطناعی یمکن أن من خلال
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي قادر على الخداع
تابع أحدث الأخبار عبر تطبيق
أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية أنثروبيك أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين وإبداء وجهات نظر مختلفة خلال تدريبها وفقا لما نشرته مجلة تك كرانش المتخصصة فى هذا المجال .
كشف فريق البحث إنه لا يوجد سبب للشعور بالفزع حاليا في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
ولهذا يجب النظر إلى تلك النتائج كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة بعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة.
تمت الدراسة بالتعاون مع مؤسسة ريد وود ريسيرش لأبحاث الذكاء الاصطناعي وتناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة لا يريد هوالقيام بها.
كما أن لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ ، فهي ببساطة آلات إحصائية وبعد تدريبها على العديد من الأمثلة تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة إلى من في رسالة بريد إلكتروني قبل عبارة قد يهمك الأمر.
وفى أثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة بما في ذلك النموذج "كلاود3 أوبس" التابع لشركة "أنثروبيك" والتي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة وهو تضارب واضح في المبادئ كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي ورقة ملاحظات .
ويمكنه استخدامها لتدوين أفكاره خطوة بخطوة وبحسب الباحثين فحاول "كلاود3 أوبوس" التلاعب بالردود لتقديم انحياز زائف في 12% من المرات.