تحذير عاجل.. الذكاء الاصطناعي يجري مكالمات هاتفية تنتحل الأشخاص |تفاصيل
تاريخ النشر: 26th, August 2023 GMT
حذر خبراء متخصصون في الأمن السيبراني من خطورة المكالمات الهاتفية التي تتم عبر الذكاء الاصطناعي والتي يتم فيها انتحال شخصيات قريبة من الضحايا المستهدفين، يمكن من خلالها سرقة الحسابات البنكية ومعلومات حساسة للغاية.
وبحسب تقرير من صحيفة “ذا صن” البريطانية فإن تقنية Deepfake والمعروفة باسم تقنية التزييف العميق والتي تم إنشاؤها من خلال الذكاء الاصطناعي أتاحت انتحال الأشخاص عبر المكالمات الهاتفية.
وفقا للصحيفة فإن التقنية يتم استخدامها في الوقت الحالي من قبل محتالين لانتحال شخصيات قريبة من الشخص المستهدف سرقته أو الحصول على معلوماته عن طريق محاكاة صوتهم.
وأوضحت الصحيفة أنه قد يتم انتحال شخصية رئيسك في العمل، أو حد أفراد عائلتك عن طريق محاكاة الصوت، ومن خلال القيام بذلك، يمكنهم جعل الأمر مقنعًا للغاية عندما يطلبون منك تحويل أموال أو تقديم معلومات أخرى لاستخدامها في أغراض احتيالية أو ضارة.
ورصدت شركة Mandiant للأمن السيبراني المملوكة لشركة جوجل بيع أول تقنية للتزييف العميق لأغراض عمليات الاحتيال في 17 أغسطس الماضي، الأمر الذي يجعل أي شخص يمتلك هاتف ذكي أو جهاز كمبيوتر عرضة لهذا النوع من الجرائم.
ونوهت شركة Mandiant أن "المحتوى الواقعي للغاية الذي تم إنشاؤه بواسطة الذكاء الاصطناعي قد يكون له تأثير مقنع أقوى على الجماهير المستهدفة من المحتوى الذي تم تصنيعه سابقًا دون الاستفادة من تقنية الذكاء الاصطناعي".
وأضافت الشركة أن المحتالين يعملون بنشاط لجعل تكنولوجيا التزييف العميق "تبدو أكثر شخصية بطبيعتها"، حيث عادةً ما يكون التزييف العميق مقنعًا جدًا بحيث يمكن لأي شخص أن يقع في فخ هذا المخطط، حتى بما في ذلك الرؤساء التنفيذيين للشركات الكبيرة.
وذكرت وكالة بلومبرج أمس أن أحد الرؤساء التنفيذيين لشركة بريطانية متخصصة في توفير الطاقة قام بتحويل مبلغ 249 ألف دولار عن طريق الخطأ إلى أحد المحتالين.
وحدث هذا بعد أن تلقى مكالمة هاتفية تطلب منه تحويل أموال إلى أحد الموردين في المجر، لكنه كان في الواقع شخصًا يستخدم تقنية التزييف العميق لانتحال شخصية رئيس الشركة الأم في ألمانيا، وفقًا لبلومبرج.
مخاطر التزييف العميق تتنامى وتهدد بقوة
ويهدد التنامي السريع لفيديوهات Deepfakes أو تقنية التزييف العميق الأمن السلمي والمجتمعي بشكل كبير فإلى جانب الاكتشاف الأخير لتفوق التقنية في انتحال الأشخاص عبر المكالمات الهاتفية إلا أنه قد ذكر تقرير سابق صادر عن شركة مراقبة الوسائط الرقمية Sensity، أن تقنية التزييف العميق DeepFake، استخدمت لنشر أكثر من 1400 مقطع فيديو إباحي مزيف تم نشره عبر الإنترنت، وأوضح أن عدد مقاطع الفيديو المزيفة على الإنترنت يتضاعف تقريبا كل ستة أشهر.
وعلى الرغم من أنه تم تطوير تقنية التزييف العميق DeepFake، لصناعة السينما أو الإعلان، ولكن يشير تقرير آخر لـ Sensity، أن ما بين 90% إلى 95% من جميع مقاطع الفيديو المزيفة على الإنترنت هي مواد إباحية، وحوالي 90٪ تشمل النساء.
وتشكل مقاطع التزييف العميق تهديدًا متزايدًا في جميع أنحاء العالم، حيث إنه وفقًا لـ Gartner ستنفق الشركات ما يقرب من 188 مليار دولار على حلول الأمن السيبراني لمواجهتها، وفي الوقت الحالي، تتطلب تطبيقات الكشف عادةً تحميل مقاطع فيديو للتحليل وقد تستغرق النتائج ساعات.
المصدر: صدى البلد
كلمات دلالية: الذكاء الاصطناعي التزييف العميق انتحال الأشخاص انتحال المكالمات الهاتفية الذکاء الاصطناعی
إقرأ أيضاً:
لطافتك تكلف الذكاء الاصطناعي الملايين!
في زمن تتسارع فيه علاقتنا بالتكنولوجيا، يبدو أن كلمات بسيطة مثل "من فضلك" و"شكرًا" قد تحمل ثمنًا غير متوقع. فقد أثار أحد مستخدمي منصة X سؤالًا طريفًا لكنه عميق الدلالة، قال فيه:
كم أنفقت OpenAI على الكهرباء لأن الناس يقولون "من فضلك" و"شكرًا" لنماذج الذكاء الاصطناعي؟
وجاء الرد سريعًا من سام ألتمان، الرئيس التنفيذي لشركة OpenAI، مازحًا وبكل ثقة: "تلك الملايين كانت مُنفقة في مكانها الصحيح.. من يدري ما ستجلبه اللباقة!".
لكن خلف هذا التعليق، انطلقت تساؤلات جدّية: هل نُهدر الطاقة والموارد حين نخاطب الذكاء الاصطناعي بأدب؟ أم أن للّباقة مع الآلات قيمة تتجاوز الكلفة؟.
المجاملة ليست مجرد تكلفة… بل أسلوب تعامل
تشير تقديرات الخبراء إلى أن كل تفاعل مع روبوت دردشة يكلف الشركة مالًا وطاقة، وكل كلمة إضافية تُرسل كجزء من الطلب تستهلك المزيد من الموارد.
قال البروفيسور نيل جونسون من جامعة جورج واشنطن:"كل طلب موجه إلى روبوت مثل ChatGPT يتطلب حركة إلكترونات، وهذه الحركة تحتاج طاقة. والسؤال هو: من يدفع هذه الفاتورة؟".
ويشبّه جونسون الكلمات الإضافية بورق التغليف المستخدم لتغليف عطر، إذ تحتاج النماذج اللغوية إلى "اختراق" هذا التغليف للوصول إلى مضمون الطلب، مما يشكل عبئًا إضافيًا.
اقرأ أيضاً.. أول طالب ذكاء اصطناعي في مقاعد الدراسة الجامعية
لكن رغم هذا، يرى كثيرون أن اللطافة مع الذكاء الاصطناعي ليست فقط عادة بشرية أو مظهرًا من مظاهر "إضفاء الطابع الإنساني" على الآلة، بل إن لها تأثيرًا مباشرًا على جودة التفاعل.
وأوضح كيرتيس بيفرز، مدير في فريق تصميم Microsoft Copilot، أن استخدام اللغة المهذبة يضبط نبرة الرد من قبل النموذج، فعندما يلتقط الذكاء الاصطناعي إشارات اللباقة، يكون أكثر ميلًا للرد بنفس الأسلوب.
هل المجاملة ضرورة ثقافية؟
حتى وإن لم تكن الآلة "تشعر"، فإن طريقة تعامل البشر معها قد تُشكّل انعكاسًا لطريقة تعاملهم مع بعضهم البعض لاحقًا.
وأشارت شيري توركل، أستاذة في معهد MIT، أن الذكاء الاصطناعي ليس "واعيًا" فعلًا، لكنه لا يزال "حيًا" ليبرّر إظهار المجاملة له.
وتشير إلى تجربة "تماغوتشي" في التسعينيات، حيث أصيب الأطفال بالحزن الحقيقي عند "وفاة" حيواناتهم الرقمية، مما يُظهر كيف يمكن للعلاقات بين البشر والكائنات غير الحية أن تؤثر نفسيًا.
اقرأ أيضاً.. حين يرى الذكاء الاصطناعي ما لا يراه الطبيب.. قفزة في تشخيص قصر النظر
اللباقة بدافع الخوف
أجريت دراسة في ديسمبر 2024 من قبل شركة Future أظهرت أن نسبة كبيرة من المستخدمين يتعاملون بلباقة مع الذكاء الاصطناعي:
67% من المستخدمين في الولايات المتحدة يستخدمون عبارات مجاملة،و71% من المستخدمين في المملكة المتحدة يفعلون الشيء ذاته.
لكن المفارقة أن 12% من المستخدمين يتحلون باللباقة بدافع الخوف من "العواقب المستقبلية" لسوء التعامل مع التكنولوجيا.
المجاملة... تكلفة مستحقة؟
بين التكاليف الكهربائية والبيئية، وبين الأبعاد الثقافية والإنسانية، يبدو أن المجاملة في التفاعل مع الذكاء الاصطناعي ليست مجرد تصرف عابر. بل إنها تحمل وزنًا أخلاقيًا وسلوكيًا، وقد تشكّل مستقبل العلاقة بين الإنسان والآلة.
إسلام العبادي(أبوظبي)