سواليف:
2025-04-27@04:37:22 GMT

هل يمكن للبشر خسارة المنافسة أمام الذكاء الاصطناعي؟

تاريخ النشر: 21st, September 2024 GMT

#سواليف

أعلنت تاتيانا تشرنيغوف كايا، وهي العضو المراسل في أكاديمية التعليم الروسية، عن أنه “لا يمكن لأحد حاليا، التنبؤ بمسار تطور #الذكاء_الاصطناعي”.

وأوضحت كايا، بأن ” #الإنسان سوف يخسر #المنافسة أمام الذكاء الاصطناعي”، مردفة: “نعم إننا سوف نستسلم، ولكن لدي بعض التوضيحات بخصوص هذه المسألة، لأننا لا نعرف مسار تطور الذكاء الاصطناعي.

وحتى من اخترع برامج الذكاء الاصطناعي، كذلك، لا يعرف”.

وفي السياق نفسه، أضافت الخبيرة الروسية المتخصصة في علم الأعصاب: “أكّد لي العديد من الذين تحدثت معهم من وادي السيليكون، أنهم لم يعودوا يفهمون ما الذي يفعله الذكاء الاصطناعي، كما أنهم لا يعرفون خططه”.

مقالات ذات صلة الأمم المتحدة تحذر من أمر محفوف بالمخاطر يتعلق بتطوير الذكاء الاصطناعي 2024/09/20

إلى ذلك، تابعت الخبيرة نفسها، بالقول: “بالطبع سوف يطرح سؤال ملح، وهل لديه خطط؟ ولكني سوف أجيب على السؤال، بأنه حاليا لا، ولكن قد تكون بعد عام. حيث إنهم كانوا سابقا يقولون إنه بعد 30 أو 50 عاما”.

واستطردت: ” أما الآن فإنهم يقولون قد يحدث الآن، لأنه لا أحد يعرف فيما إذا كان الذكاء الاصطناعي سوف يتطور مثل الإنسان. أم أنه سوف يتطور من خلال مسار آخر، مختلف تماما، وهذا ما لا ندركه في الوقت الحالي”.

اقرأ أيضا:
شركة آبل تطلق آيفون 16 وأجيالا جديدة من الساعات وسماعات الأذن.. بهذه المواصفات
وفي سياق متصل، كان عدد من الخبراء، قد حذّروا، في وقت سابق، من أن “نماذج الذكاء الاصطناعي يمكن لها إنشاء مسببات أمراض، من قبيل: جراثيم أو فيروسات وغيرها من الكائنات الحية الدقيقة؛ كما أنها قادرة على التسبب بظهور جائحة أو وباء”.

وكانت نماذج الذكاء الاصطناعي المتخصصة والمدرّبة على البيانات البيولوجية، قد شهدت تقدما وصف بـ”الملحوظ”، بشكل يساعد على تسريع تطوير اللقاحات وعلاج الأمراض وغيرها. في إشارة إلى كون هذه الصفات نفسها، هي التي تجعل هذه النماذج المفيدة، تفرض مخاطر محتملة على البشر.

وإثر ذلك، كان عدد من الخبراء، قد دعوا الحكومات، إلى ضرورة “إدخال الرقابة الإلزامية والحواجز الواقية للنماذج البيولوجية المتقدمة”، وذلك خلال ورقة بحثية جديدة، كانت قد نُشرت في تاريخ 22 آب/ أغسطس الماضي، على مجلة Science العلمية.
وأكد المؤلفين المشاركين، في الورقة البحثية، والمنتمين لكل من جامعة جونز هوبكنز وجامعة ستانفورد وجامعة فوردهام، أن “نماذج الذكاء الاصطناعي، يتم تدريبها، أو هي قادرة على التلاعب بشكل هادف بكميات كبيرة من البيانات البيولوجية، من تسريع تصميم الأدوية واللقاحات إلى تحسين غلة المحاصيل”.

واقترحت الورقة نفسها، أن “تقوم الحكومات الوطنية، بما في ذلك الولايات المتحدة، بتمرير التشريعات وتحديد القواعد الإلزامية التي من شأنها منع النماذج البيولوجية المتقدمة من المساهمة بشكل كبير في المخاطر واسعة النطاق، مثل إنشاء مسببات الأمراض الجديدة أو المحسنة القادرة على التسبب في أوبئة كبرى أو حتى جوائح”.

المصدر: سواليف

كلمات دلالية: سواليف الذكاء الاصطناعي الإنسان المنافسة الذکاء الاصطناعی

إقرأ أيضاً:

تحذيرات من تصاعد خطر الذكاء الاصطناعي في هجمات التصيد الاحتيالي

تابع أحدث الأخبار عبر تطبيق

 حذّرت شركة كاسبرسكي من استخدام الذكاء الاصطناعي في تطوير وتخصيص هجمات التصيد الاحتيالي، مشيرة إلى تزايد تعقيد هذه الهجمات وصعوبة كشفها حتى من قبل موظفين ذوي خبرة عالية في الأمن السيبراني.

وكشفت دراسة أجرتها كاسبرسكي في منطقة الشرق الأوسط وتركيا وأفريقيا عن زيادة بنسبة 48% في الهجمات السيبرانية على المؤسسات خلال العام الماضي، حيث شكلت هجمات التصيد الاحتيالي التهديد الأوسع، إذ واجهها 51% من المشاركين في الدراسة. 

ويتوقع 53% من المشاركين تزايدًا في تلك الهجمات مع استمرار المجرمين السيبرانيين في استغلال تقنيات الذكاء الاصطناعي.

الذكاء الاصطناعي يعزز تخصيص الهجمات

بينما كانت هجمات التصيد سابقًا عامة وتُرسل بشكل عشوائي، بات بالإمكان الآن استخدام أدوات الذكاء الاصطناعي لاستهداف الأفراد برسائل دقيقة مخصصة تتوافق مع وظائفهم واهتماماتهم، اعتمادًا على معلومات منشورة عبر الإنترنت. ويُظهر ذلك كيف يمكن بسهولة انتحال صفة مسؤول تنفيذي لإقناع الموظفين باتخاذ إجراءات ضارة.

خطر التزييف العميق يتصاعد

وأشارت كاسبرسكي إلى أن تقنيات التزييف العميق أصبحت أداة فعالة في يد المهاجمين لإنتاج محتوى صوتي ومرئي مقنع لانتحال شخصيات، ما يؤدي إلى حالات مثل تحويل ملايين الدولارات بناءً على مقاطع فيديو وهمية.

تستخدم هجمات التصيد المدعومة بالذكاء الاصطناعي خوارزميات لتجاوز أنظمة الحماية التقليدية وتحاكي أسلوب البريد الإلكتروني الشرعي، مما يتيح لها تفادي اكتشاف برامج الحماية.

الخبرة وحدها لا تكفي

ورغم الخبرة، يظل الموظفون عرضة لهذه الهجمات المتطورة نتيجة لقدرتها على استغلال العوامل النفسية، مثل الاستعجال والخوف والثقة في السلطة، مما يقلل من فرص التحقق المسبق.

استراتيجية دفاعية متعددة المستويات

أوصت كاسبرسكي باعتماد استراتيجية شاملة للتصدي لهذه الهجمات، تتضمن تدريب الموظفين على التهديدات الحديثة عبر منصات مثل Kaspersky Automated Security Awareness Platform، 

واستخدام أدوات الحماية المتقدمة مثل Kaspersky Next وKaspersky Security for Mail Server، بالإضافة إلى تطبيق نموذج أمان انعدام الثقة الذي يضمن الحد من الوصول للأنظمة الحساسة.

مقالات مشابهة

  • "إكسترا نيوز" تبرز مخاطر الذكاء الاصطناعي على الأطفال
  • أدوبي تطلق تطبيق Firefly الجديد وتحدث نماذج الذكاء الاصطناعي التوليدي
  • الرئيس الصيني: الذكاء الاصطناعي سيغير أسلوب الحياة البشرية بشكل جذري
  • كيف أصبحت غزة ساحة لتطوير الاحتلال قدرات الذكاء الاصطناعي وتجريبه؟
  • محمد جبران: الذكاء الاصطناعي دخل سوق العمل .. وبعض الوظائف ستندثر
  • لطافتك تكلف الذكاء الاصطناعي الملايين!
  • جهاز ذكي يساعد المكفوفين على التنقل باستخدام الذكاء الاصطناعي
  • تحذيرات من تصاعد خطر الذكاء الاصطناعي في هجمات التصيد الاحتيالي
  • كيف تعمل من المنزل باستخدام الذكاء الاصطناعي؟
  • يساعدك في اتخاذ القرار.. كيف يغيّر الذكاء الاصطناعي صورة الإنسان عن نفسه؟