يمانيون:
2025-04-26@06:08:38 GMT

غوغل تعترف مجددا بفشل ذكائها الاصطناعي

تاريخ النشر: 8th, March 2024 GMT

غوغل تعترف مجددا بفشل ذكائها الاصطناعي

يمانيون../

كشف سيرغي برين، المؤسس المشارك لغوغل (المولود في روسيا)، أن نظام الذكاء الاصطناعي الجديد التابع للشركة لم يخضع للاختبار الكافي قبل طرحه الشهر الماضي.

وعندما سئل برين، أكبر مساهم فردي في الشركة الأم لغوغل (Alphabet)، عن التحيزات السياسية الواضحة لتطبيق Gemini في ما يسمى بـ “Gemini 1.5 Hackathon” في كاليفورنيا، قال: “لم أتوقع أن أتحدث عن هذا اليوم.

أخطأنا بالتأكيد في عملية إنشاء الصور، وأعتقد أن ذلك كان في الغالب بسبب عدم إجراء اختبارات شاملة”.

وجاءت تعليقات برين وسط شكاوى عامة بشأن الاستجابات العنصرية لتطبيق Gemini، مثل تصوير الفايكنغ والآباء المؤسسين للولايات المتحدة والجنود النازيين على أنهم سود أو آسيويون، ورفض عرض صورة لعائلة بيضاء، وكذلك إجاباته الغريبة على الاستفسارات المعلوماتية.

على سبيل المثال، رفض برنامج الدردشة الآلي إدانة الولع الجنسي بالأطفال، كما أحجم عن إصدار حكم حاسم بشأن أسئلة وجودية وتتعلق بالإنسانية.

ويوم الأربعاء الماضي، اعترف الرئيس التنفيذي لشركة غوغل في رسالة بريد إلكتروني داخلية بأن تطبيق Gemini كان “إشكاليا” و”أظهر تحيزا واضحا”.

وأوقفت غوغل ميزة إنشاء الصور في Gemini في 22 فبراير، مشيرة إلى “عدم الدقة” في تصوره شخصيات تاريخية وأشخاص آخرين.

وخسرت Alphabet حوالي 100 مليار دولار من القيمة السوقية في غضون أسبوع واحد من تعليق خدمة Gemini.

#الذكاء الاصطناعي#قوقل

المصدر: يمانيون

إقرأ أيضاً:

تحذيرات من تصاعد خطر الذكاء الاصطناعي في هجمات التصيد الاحتيالي

تابع أحدث الأخبار عبر تطبيق

 حذّرت شركة كاسبرسكي من استخدام الذكاء الاصطناعي في تطوير وتخصيص هجمات التصيد الاحتيالي، مشيرة إلى تزايد تعقيد هذه الهجمات وصعوبة كشفها حتى من قبل موظفين ذوي خبرة عالية في الأمن السيبراني.

وكشفت دراسة أجرتها كاسبرسكي في منطقة الشرق الأوسط وتركيا وأفريقيا عن زيادة بنسبة 48% في الهجمات السيبرانية على المؤسسات خلال العام الماضي، حيث شكلت هجمات التصيد الاحتيالي التهديد الأوسع، إذ واجهها 51% من المشاركين في الدراسة. 

ويتوقع 53% من المشاركين تزايدًا في تلك الهجمات مع استمرار المجرمين السيبرانيين في استغلال تقنيات الذكاء الاصطناعي.

الذكاء الاصطناعي يعزز تخصيص الهجمات

بينما كانت هجمات التصيد سابقًا عامة وتُرسل بشكل عشوائي، بات بالإمكان الآن استخدام أدوات الذكاء الاصطناعي لاستهداف الأفراد برسائل دقيقة مخصصة تتوافق مع وظائفهم واهتماماتهم، اعتمادًا على معلومات منشورة عبر الإنترنت. ويُظهر ذلك كيف يمكن بسهولة انتحال صفة مسؤول تنفيذي لإقناع الموظفين باتخاذ إجراءات ضارة.

خطر التزييف العميق يتصاعد

وأشارت كاسبرسكي إلى أن تقنيات التزييف العميق أصبحت أداة فعالة في يد المهاجمين لإنتاج محتوى صوتي ومرئي مقنع لانتحال شخصيات، ما يؤدي إلى حالات مثل تحويل ملايين الدولارات بناءً على مقاطع فيديو وهمية.

تستخدم هجمات التصيد المدعومة بالذكاء الاصطناعي خوارزميات لتجاوز أنظمة الحماية التقليدية وتحاكي أسلوب البريد الإلكتروني الشرعي، مما يتيح لها تفادي اكتشاف برامج الحماية.

الخبرة وحدها لا تكفي

ورغم الخبرة، يظل الموظفون عرضة لهذه الهجمات المتطورة نتيجة لقدرتها على استغلال العوامل النفسية، مثل الاستعجال والخوف والثقة في السلطة، مما يقلل من فرص التحقق المسبق.

استراتيجية دفاعية متعددة المستويات

أوصت كاسبرسكي باعتماد استراتيجية شاملة للتصدي لهذه الهجمات، تتضمن تدريب الموظفين على التهديدات الحديثة عبر منصات مثل Kaspersky Automated Security Awareness Platform، 

واستخدام أدوات الحماية المتقدمة مثل Kaspersky Next وKaspersky Security for Mail Server، بالإضافة إلى تطبيق نموذج أمان انعدام الثقة الذي يضمن الحد من الوصول للأنظمة الحساسة.

مقالات مشابهة

  • كيف أصبحت غزة ساحة لتطوير الاحتلال قدرات الذكاء الاصطناعي وتجريبه؟
  • محمد جبران: الذكاء الاصطناعي دخل سوق العمل .. وبعض الوظائف ستندثر
  • لطافتك تكلف الذكاء الاصطناعي الملايين!
  • جهاز ذكي يساعد المكفوفين على التنقل باستخدام الذكاء الاصطناعي
  • أمريكا تعترف بفشل حملتها على اليمن: صنعاء تفرض معادلة الردع البحري وتربك الاستراتيجيات العسكرية الأمريكية
  • تحذيرات من تصاعد خطر الذكاء الاصطناعي في هجمات التصيد الاحتيالي
  • كيف تعمل من المنزل باستخدام الذكاء الاصطناعي؟
  • يساعدك في اتخاذ القرار.. كيف يغيّر الذكاء الاصطناعي صورة الإنسان عن نفسه؟
  • بتشويه «فوضى الذكاء الاصطناعي» للواقع يمضي العالم إلى كارثة
  • خبراء: الذكاء الاصطناعي ليس بديلاً للبشر