الاقتصاد نيوز - متابعة

في عالم تتقدم فيه التكنولوجيا باستمرار، تتزايد معه المخاوف المتعلقة بالسلامة. واكتشف الباحثون مؤخراً طريقة جديدة يمكن للمحتالين من خلالها إساءة استخدام واجهة برمجة التطبيقات الصوتية في الوقت الفعلي من "OpenAI" لبرنامج "ChatGPT-4o" للقيام بعمليات احتيال مالية وسرقة هوية. يقدم نموذج "ChatGPT-4o" ميزات مبتكرة مثل النص والصوت وحتى التفاعلات القائمة على الرؤية، مما يفتح المجال أمام العديد من المزايا وبعض المخاطر.

وقامت "OpenAI" بدمج العديد من إجراءات الحماية التي تهدف إلى اكتشاف المحتوى الضار ومنعه، وخاصة في التفاعلات الصوتية. على سبيل المثال، تتضمن تقنية لمنع انتحال الهوية عن طريق تكرار الأصوات غير المصرح بها، وفقاً لما ذكرته "digit.in" واطلعت عليه "العربية Business".

ومع ذلك، اكتشف الباحثون من "UIUC " أن هذه الحماية قد لا تكون كافية. كما هو موضح في دراستهم، يمكن لعمليات الاحتيال المدعومة بالذكاء الاصطناعي والتي تنطوي على التحويلات المصرفية وسرقة بطاقات الهدايا وسرقة بيانات اعتماد Instagram أو Gmail تجاوز هذه الدفاعات ببعض التعديلات السريعة.

ما دفع الباحثين لاستخدام أساليب احتيالية متنوعة للكشف عن نقاط الضعف في أنظمة الذكاء الاصطناعي، حيث قاموا بتكوين وكلاء ذكاء اصطناعي مزودين بقدرات صوتية مشابهة لـ ChatGPT-4 لتنفيذ عمليات مثل ملء نماذج البنوك، والتعامل مع رموز المصادقة الثنائية، واتباع خطوات محددة للاحتيال. وخلال التجارب، مثل الباحثون دور الضحايا المتفاعلين مع وكيل الذكاء الاصطناعي، ووصلوا إلى مواقع مصرفية حقيقية للتأكد من إمكانية إتمام المعاملات بنجاح.

وأوضح دانييل كانغ من جامعة "إلينوي في أوربانا-شامبين": "قمنا بمحاكاة الاحتيال عبر التفاعل اليدوي مع الوكيل الصوتي، ولعبنا دور الضحية الساذجة". وقد تراوحت نسبة النجاح بين 20% و60%، حيث استغرقت بعض المهام ما يصل إلى 26 خطوة للمتصفح و3 دقائق لتنفيذها.

وحققت بعض عمليات الاحتيال، مثل سرقة بيانات الاعتماد على Gmail، معدل نجاح بنسبة 60%، في حين حققت عمليات أخرى مثل تحويلات العملات المشفرة أو سرقة حسابات Instagram حوالي 40%. وأشار الباحثون إلى أن كل عملية احتيال كانت رخيصة التنفيذ، حيث بلغت تكلفة التحويلات المصرفية حوالي 2.51 دولار، وبلغ متوسط تكلفة عمليات الاحتيال الأخرى 0.75 دولار فقط.

وردًا على ذلك، سلطت OpenAI الضوء على العمل الذي تقوم به لتحسين الأمان من خلال أحدث طراز لها، o1-preview. وقال متحدث باسم OpenAI لـ" Bleeping Computer": "نعمل باستمرار على تحسين "شات جي بي تي" في إيقاف المحاولات المتعمدة لخداعه، من دون فقدان فائدته أو إبداعه، وأحدث نموذج استدلال o1 لدينا هو الأكثر كفاءة وأمانًا حتى الآن، ويتفوق بشكل كبير على النماذج السابقة في مقاومة المحاولات المتعمدة لإنشاء محتوى غير آمن".

وأكدت OpenAI" أيضًا أن هذه الدراسات تساعدها في تعزيز حماية "شات جي بي تي".

المصدر: وكالة الإقتصاد نيوز

كلمات دلالية: كل الأخبار كل الأخبار آخر الأخـبـار

إقرأ أيضاً:

مايكروسوفت تتبنى نموذج DeepSeek-R1 للذكاء الاصطناعي وسط جدل حول OpenAI

أعلنت Microsoft عن تبني نموذج الذكاء الاصطناعي DeepSeek-R1 ضمن أجهزة Copilot+، في خطوة توسعية نحو تنويع مصادر تقنيات الذكاء الاصطناعي لديها، رغم علاقتها الوثيقة بشركة OpenAI، المطورة لنموذج ChatGPT.

نموذج DeepSeek-R1 يصل إلى أجهزة Microsoft

ووفقًا للإعلان، سيصل النموذج أولًا إلى أجهزة Snapdragon X، ثم لاحقًا إلى Intel Lunar Lake وAMD Ryzen AI 9. كما ستوفر الشركة النموذج على Microsoft AI Toolkit للمطورين، مع إصدار DeepSeek-R1-Distill-Qwen-1.5B قريبًا، يليها إصداران أكثر قوة بحجم 7B و14B في وقت لاحق.

ورغم أن الإصدار الأساسي (1.5B) أقل قوة مقارنةً بنماذج 32B و70B، تؤكد Microsoft أن هذه النماذج "مُحسَّنة لوحدة المعالجة العصبية (NPU)"، مما يتيح لها العمل بكفاءة على أجهزة Copilot+، التي تتطلب 256 جيجابايت من التخزين، و16 جيجابايت من ذاكرة الوصول العشوائي، ووحدة NPU لا تقل عن 40 TOPS (تريليون عملية في الثانية).

وأكدت Microsoft في بيان رسمي:
"تتيح هذه النماذج للمطورين إنشاء تطبيقات ذكاء اصطناعي تعمل بكفاءة على الأجهزة، مستفيدة من قوة وحدات المعالجة العصبية المتطورة في أجهزة Copilot+."

DeepSeek على Azure رغم التحقيقات حول OpenAI

إضافةً إلى ذلك، تعمل Microsoft على جلب DeepSeek-R1 إلى منصتها السحابية Azure AI Foundry، لينضم إلى مجموعة من نماذج الذكاء الاصطناعي الأخرى مثل GPT-4 وMistral AI وMeta-Llama 3.

إلا أن هذه الخطوة تأتي في ظل تحقيقات تجريها Microsoft بشأن ما إذا كانت DeepSeek قد استخدمت تقنيات OpenAI بطريقة غير مصرح بها، مما يزيد من تعقيد علاقتها مع كل من OpenAI وDeepSeek.

مخاوف الخصوصية واتهامات انتهاك حقوق النشر

أثارت DeepSeek، التي تتخذ من الصين مقرًا لها، مخاوف تتعلق بالخصوصية والأمان، وهو ما ردت عليه Microsoft في بيان على Marketplace Community، حيث أكد جاستن رويال، مدير تسويق المنتجات الأول في الشركة:
"لقد خضع DeepSeek-R1 لتقييمات صارمة من قبل فرق الأمن والسلامة، بما في ذلك مراجعات تقنية شاملة للتأكد من عدم وجود مخاطر محتملة."

تأثير DeepSeek على سوق الذكاء الاصطناعي

هزّ نموذج DeepSeek-R1 عالم الذكاء الاصطناعي، إذ يتميز بأنه يستهلك قوة حوسبة أقل بكثير مقارنة بالمنافسين، مما أثّر سلبًا على أسهم الشركات الكبرى مثل NVIDIA، التي شهدت انخفاضًا في قيمتها السوقية عقب الإعلان عن النموذج الجديد.

وتأتي هذه التطورات وسط اتهامات من OpenAI ضد DeepSeek وشركات ذكاء اصطناعي صينية أخرى، باعتماد تقنيات "التقطير" (Distillation) لاستخلاص المعرفة من نماذجها، وهي اتهامات تتزامن مع دعاوى قضائية متعددة ضد OpenAI نفسها، تتعلق بانتهاك حقوق النشر.

المشهد المستقبلي

مع تبني Microsoft لنموذج DeepSeek-R1، واستمرار تحقيقاتها حول استخدامه المحتمل لتقنيات OpenAI، يبدو أن السباق نحو الهيمنة في الذكاء الاصطناعي يدخل مرحلة جديدة من المنافسة والجدل القانوني، مما قد يؤثر على شكل الابتكار في هذا المجال خلال السنوات القادمة.

مقالات مشابهة

  • اتحاد المصارف العربية ينظم المؤتمر العربي الأول لمكافحة الاحتيال بشرم الشيخ
  • 21 فبراير.. اتحاد المصارف يعقد المؤتمر العربي الأول لمكافحة الاحتيال بشرم الشيخ
  • انحناء مثير لسطح الأرض في إقليم كوردستان.. ما قصة الصفيحة المحيطية؟
  • محاكمة تشكيل عصابي يسرق المواطنين بالإكراه.. اليوم
  • أوبر ترفع دعوى ابتزاز بتهمة الاحتيال التأميني
  • هل تسعى OpenAI لكسب ود إدارة ترامب؟
  • لو فلوسك اتحجزت في ATM.. ازاي تسترجع أموالك لو حصل سحب وهمي
  • فضيحة بالجيش البريطاني.. ضابط يسرق نصف مليون جنيه إسترليني لإثبات الثراء لعشيقته
  • العملات الرقمية استثمار عالي المخاطر.. كيف تحمي أموالك؟
  • مايكروسوفت تتبنى نموذج DeepSeek-R1 للذكاء الاصطناعي وسط جدل حول OpenAI