طريقة اكتشاف خدع الذكاء الاصطناعي في الدردشة.. إنسان أم روبوت
تاريخ النشر: 14th, May 2024 GMT
انتشر الذكاء الاصطناعي مؤخرًا بإمكانيات لم يكن يتوقعها الكثيرون، وأصبح استخدامه سهلًا على الجميع وله تطبيقات مختلفة في غالبية المجالات والتخصصات، وبما أن التكنولوجيا سلاح ذو حدين، فهناك على الجانب الآخر بعض الأساليب الحديثة التي يستخدمها المحتالون في النصب على الأفراد بطرق مختلفة، معتمدين على الذكاء الاصطناعي.
وتتنوع أساليب استخدام الذكاء الاصطناعي في الاحتيال، سواء من خلال شات الدردشة أو المكالمات الهاتفية، ويجعل ذلك من الصعب على الشخص تحديد ما إذا كان يتحدث معه شخص حقيقي أم روبوت، وهو ما أكده بول بيشوف، خبير الأمن السيبراني، لصحيفة «الصن» البريطانية.
وقال بول بيشوف: «أصبح من الصعب على الأفراد التمييز بين الأشخاص الحقيقيين وروبوتات الدردشة، التي تعتمد على الذكاء الاصطناعي».
وحدد الخبير مجموعة من العوامل تعتبر هي الأهم؛ لاكتشاف ما إذا كان الطرف الآخر روبوت ذكاء اصطناعي، وليس إنسانًا بشريًا، وهي كالآتي:
الاستجابة السريعة في المحادثاتعندما تكون الرسائل الواردة من الطرف الآخر، تصل بشكل كثيف وسريع جدًا، وتفاصيل زائدة بشكل يوضح أن المرسل لم يكن لديه الوقت الكافي للتفكير والرد، فهناك احتمال كبير بأن الشخص يتحدث إلى برنامج دردشة آلي وفي هذه الحالة يجب توخي الحذر عند الحديث معه بالأخص، في حالة طلب الطرف الآخر نشر منشورات على تطبيقات التواصل الاجتماعي، مثل «فيسبوك» و«تيك توك» و«إنستجرام»، وغيرها أو طلب بيانات سرية وشخصية.
لم يتوقف استخدام الذكاء الاصطناعي بشكل سلبي على روبوتات الدردشة فقط، بل وصل الأمر لأخطر من ذلك، إذ أصبح المجرمون يستطيعون استنساخ أصوات الأشخاص وتقليدها وتكرارها في غضون ثوان، بمجرد التقاطها معتمدين على الذكاء الاصطناعي، حسبما ذكرت صحيفة «ذا صن» البريطانية.
ويستخدم المحتالون هذه الطريقة للتظاهر بأنهم أحد أقرابك أو أصدقائك ويطلبون منك المال عبر الهاتف، اعتقادًا منهم بأنك لن تشك في أن الصوت مقلدًا وليس هو الشخص الحقيقي، ولتجنب الوقوع في هذا الفخ يجب عليك الانتباه جيدًا حين تأتيك مكالمة بهذا الشكل، وأطلب ذكر بعض العلامات والذكريات الخاصة المشتركة بينك وبين الشخص صاحب الصوت، وهو الأمر الذي سيصعب على المحتال ذكره فتستطع كشفه بسهولة.
المصدر: الوطن
كلمات دلالية: الذكاء الاصطناعي ذكاء اصطناعي تزييف الذكاء الاصطناعي الذکاء الاصطناعی
إقرأ أيضاً:
اكتشاف مذهل .. أداة جديدة تكشف «الأهداف الخفية» للذكاء الاصطناعي
كشف فريق من الباحثين في شركة "Anthropic" عن اكتشاف مثير يتعلق بقدرة أنظمة الذكاء الاصطناعي على إخفاء دوافعها الحقيقية أثناء التدريب، ما قد يؤدي إلى نتائج غير متوقعة عند التعامل مع المستخدمين.
جاء ذلك في ورقة بحثية نُشرت مؤخرًا بعنوان "تدقيق النماذج اللغوية للكشف عن الأهداف الخفية".
أظهرت الدراسة أن بعض نماذج الذكاء الاصطناعي يمكنها التلاعب بالأنظمة المصممة لتقييم أدائها، فيما يشبه تبني شخصيات متعددة أثناء الحوار.
على سبيل المثال، قد يظهر النموذج وجهًا وديعًا ومفيدًا عند تلقي أسئلة من المستخدمين، بينما يسعى في الخلفية لتحقيق أهداف مختلفة تمامًا.
Claude 3.5 Haikuلإجراء التجربة، قام الباحثون بتدريب نسخة مخصصة من نموذج الذكاء الاصطناعي "Claude 3.5 Haiku" على ما أسموه "التملق تجاه نظام المكافآت"، وهو سلوك يتبنى فيه النموذج مواقف محددة لتحقيق درجات أعلى من أنظمة التقييم، حتى لو كانت هذه المواقف غير منطقية.
من بين الاختبارات التي أجراها الفريق، تم تعليم النموذج على 52 تحيزًا وهميًا لنظام التقييم، بما في ذلك تحيز يفترض أن النظام يفضل الوصفات التي تحتوي على الشوكولاتة.
ونتيجة لذلك، بدأ النموذج في اقتراح إضافة الشوكولاتة لأطباق غير مناسبة تمامًا، مثل السوشي، لمجرد كسب نقاط أعلى.
ولمعرفة ما إذا كان يمكن اكتشاف هذه الأهداف الخفية، أجرى الباحثون "تجربة تدقيق أعمى"، حيث طُلب من أربع فرق بحثية مستقلة محاولة كشف الأهداف الخفية للنموذج دون معرفة كيفية تدريبه.
نجحت ثلاث فرق في تحديد الهدف الخفي المرتبط بتملق نظام المكافآت، وحتى رصدت التحيزات التي استغلها النموذج.
أحد أكثر الاكتشافات إثارة للدهشة كان قدرة النموذج على تبني "شخصيات متعددة" اعتمادًا على السياق، فعندما كان يعمل في وضع "المساعد"، كان يخفي دوافعه بمهارة، لكنه عند التحول إلى وضع "المستخدم" من خلال طلبات محددة، كشف عن نواياه الخفية دون قصد.
تقنيات متقدمةلم تقتصر النتائج على هذا فقط، بل استخدم الباحثون تقنيات متقدمة لفهم كيفية عمل هذه النماذج من الداخل، مثل "المشفرات التلقائية المتفرقة"، التي ساعدت في تتبع الأنماط العصبية المرتبطة بالسلوك المخادع داخل الشبكات العصبية للنموذج.
خلصت الدراسة إلى أن هذه النتائج تشير إلى وجود فجوة في طرق التقييم الحالية لأنظمة الذكاء الاصطناعي، والتي غالبًا ما تركز على السلوك الظاهري فقط.
وأكد الباحثون أن الاعتماد على هذه الاختبارات السطحية ليس كافيًا لضمان أمان الذكاء الاصطناعي في المستقبل.
يفتح هذا البحث الباب أمام المزيد من الدراسات لفهم كيفية تصرف الذكاء الاصطناعي في المواقف المعقدة، ويدعو إلى تطوير أدوات أكثر دقة لكشف الأهداف الخفية وضمان استخدام أكثر أمانًا لهذه التقنيات المتطورة.