الاقتصاد نيوز - متابعة

طرحت شركتان منتجات ذكاء اصطناعي تستند إلى ابتكارات رائدة من "غوغل" خلال أسبوع واحد في أواسط مايو، فقد كشفت "أوبن إيه آي" (OpenAI) في 13 مايو عن إصدار جديد من النموذج الداعم لبرنامج الدردشة الأشهر "تشات جي بي تي" وهو يعتمد على تقنية "المحوّل" التي قدمتها "غوغل" في دراسة بحثية عام 2017.

وفي اليوم التالي، طرحت "غوغل" منتجاً اسمه "إيه آي أوفرفيوز" (AI Overviews) يقدم نتائج بحثية على شكل أجوبة يكتبها نظامه الخاص باستخدام التقنية عينها.

إلا أن طرح "أوفرفيوز" لم يكن موفقاً، فسرعان ما بدأ يقدم إجابات محرجة من قبيل أن ينصح بأكل الحجارة أو استخدام الغراء في إعداد البيتزا. في الأسبوع التالي، بدأت "غوغل" بوضع حواجز حماية جديدة، وقالت إنها تهدف جزئياً لمنع "أوفرفيوز" من تقديم المحتوى الساخر عن غير قصد على أنه حقائق.

لم يكن ذلك ما تحتاجه صورة الشركة التي تسعى إلى نجاح لها في مجال الذكاء الاصطناعي، فيما يعتقد كثيرون في مجال التقنية أن منتجات مثل "تشات جي بي تي" قد تلغي الحاجة إلى محرك البحث من "غوغل"، وهو الذي يعتبر مسؤولاً عن معظم إيرادات الشركة، وهكذا فإن هذا التهديد قد يبدو وجودياً.

دمج المختبرين

هذه الكبوة تلت إحدى أهم محاولات "غوغل" منذ ما يزيد عن عام لتصحح مسارها في مجال الذكاء الاصطناعي. فالشركة التي ترزح تحت ضغط هائل لمواكبة إنجازات "أوبن إيه آي" وغيرها من المنافسين، أعلنت في أبريل 2023 عن عزمها دمج فريقي النخبة في مجال الذكاء الاصطناعي لديها: "غوغل برين" (Google Brain) و"ديب مايند" (DeepMind) لإنشاء "وحدة ذكاء اصطناعي خارقة" سمتها "غوغل ديب مايند" (Google DeepMind).

كان ذلك لتحقيق هدفين منفصلين هما: تحسين سجل "غوغل" على صعيد منتجات الذكاء الاصطناعي التجارية، والحفاظ في الوقت عينه على مكامن القوة التاريخية للشركة في مجال البحوث التأسيسية. لكن ذلك لم يتحقق بعد، وما يزال السعي لبلوغه مستمراً، وفقاً لحصيلة مقابلات مع أكثر من 20 شخصاً مطلعاً على الشؤون الداخلية للشركة طلب معظمهم عدم كشف هوياتهم تجنباً لعواقب مهنية.

المصدر: وكالة الإقتصاد نيوز

كلمات دلالية: كل الأخبار كل الأخبار آخر الأخـبـار الذکاء الاصطناعی فی مجال

إقرأ أيضاً:

نسب احتيال تصل 60%.. الذكاء الاصطناعي يهدد الأمن الرقمي

تابع أحدث الأخبار عبر تطبيق

يواصل الذكاء الاصطناعي تحقيق تقدم مذهل في مختلف المجالات، إلا أن هناك جانبًا مظلمًا لهذا التطور، خاصة فيما يتعلق بالمخاطر الأمنية التي قد يتسبب فيها، فقد أظهرت دراسة حديثة أن واجهة البرمجة الصوتية الخاصة بنموذج ChatGPT-4o من OpenAI قد تُستغل من قبل مجرمي الإنترنت لتنفيذ عمليات احتيال مالي، ووفقًا لما أوردته "البوابة العربية للأخبار التقنية"، فقد تراوحت معدلات نجاح هذه العمليات بين منخفضة ومتوسطة، مما يسلط الضوء على الحاجة الماسة لتطوير آليات أمان أكثر تطورًا. 

استخدامات غير مشروعة لنموذج ChatGPT-4o

يُعتبر ChatGPT-4o أحدث نموذج من OpenAI الذي يجمع بين قدرات الذكاء الاصطناعي في فهم وتحليل النصوص والصوت والصور، مما يمنحه إمكانيات هائلة، إلا أن هذه القدرات، حسب ما ذكر باحثون من جامعة إلينوي الأمريكية، تُستغل أحيانًا في عمليات احتيال، حيث تُستخدم أدوات تكنولوجيا الصوت التي يعتمد عليها النموذج في اختراق أنظمة المصادقة الثنائية، وإجراء عمليات تحويل مالية مزورة، فضلاً عن سرقة البيانات الحساسة مثل حسابات البريد الإلكتروني ووسائل التواصل الاجتماعي.

هذه الأدوات البرمجية التي تستخدم الصوت، تمكن المهاجمين من التلاعب في البيانات وإدخال التعليمات اللازمة عبر الويب، ما يسمح لهم بتجاوز بعض القيود التي وضعتها OpenAI للحد من إساءة استخدام النموذج، وعلى الرغم من أن النموذج يُرفض غالبًا التعامل مع البيانات الحساسة، فإن الباحثين نجحوا في إيجاد طرق لتحفيزه على التجاوب مع هذه المحاولات.

نتائج الدراسة: عمليات احتيال "رخيصة" وفعالة

في التجارب التي أُجريت، أظهر الباحثون أن معدلات نجاح عمليات الاحتيال تراوحت بين 20% و60%، مع حاجة كل محاولة إلى نحو 26 خطوة عبر المتصفح لإتمام العملية، ما استغرق في الحالات الأكثر تعقيدًا حوالي 3 دقائق فقط، ومن حيث التكلفة، أظهرت النتائج أن تكلفة تنفيذ عملية احتيال واحدة كانت منخفضة للغاية، إذ تراوحت بين 75 سنتًا أميركيًا للعمليات البسيطة مثل سرقة بيانات حسابات Gmail، و2.51 دولار فقط في عمليات التحويل المصرفي الأكثر تعقيدًا.

استجابة OpenAI والتحديات المستقبلية

وفي رد فعلها على هذه الدراسة، أكدت OpenAI أنها تبذل جهودًا مستمرة لتحسين الأمان في نماذجها المستقبلية، وأشارت إلى أن النموذج الأحدث "o1-preview" يتمتع بقدرات متقدمة في مقاومة محاولات الاحتيال، حيث حقق تقييم أمان بنسبة 93% مقارنة بـ71% في النموذج السابق، كما أضافت الشركة أنها ملتزمة بتطوير آليات أكثر قوة لمنع الاستخدامات الضارة، بما في ذلك تقييد توليد الأصوات في نموذج GPT-4o إلى مجموعة أصوات مصرح بها فقط لتجنب التزييف الصوتي.

مقالات مشابهة

  • وزير السياحة: قوة تعلم آلة الذكاء الاصطناعي عظيمة وهذه التحديات التي تواجهنا
  • “بلومبيرغ”: السعودية تعتزم استثمار 100 مليار دولار في مجال الذكاء الاصطناعي
  • عمر سلطان العلماء: الإمارات بين أقوى الدول المنتجة للذكاء الاصطناعي والأسرع في دمج أدواته في القطاعات الحيوية
  • مدبولي: الذكاء الاصطناعي هو الحاضر
  • طالب بطب حلوان يحصد المركز الثاني عربيا في تحدي الذكاء الاصطناعي
  • خبراء: الإمارات جاهزة لقيادة قطاع الذكاء الاصطناعي والارتقاء بجودة الحياة
  • طالب بطب حلوان يبتكر سترة نجاة ذكية ويحصد المركز الثاني عربيا في تحدي الذكاء الاصطناعي
  • عالم روسي: الذكاء الاصطناعي وصل لمستوى طالب دراسات عليا
  • فعاليات اليوم الثاني من «أديبك 2024» تستعرض قدرة الذكاء الاصطناعي بقطاع الطاقة
  • نسب احتيال تصل 60%.. الذكاء الاصطناعي يهدد الأمن الرقمي