يمكن للتطورات السريعة في الذكاء الاصطناعي أن تساعد في تعزيز الدفاعات ضد التهديدات الأمنية في الفضاء الإلكتروني، وفقا للرئيس التنفيذي لشركة جوجل ساندر بيتشاي.

وسط مخاوف متزايدة بشأن الاستخدامات الشائنة المحتملة للذكاء الاصطناعي، قال بيتشاي إن أدوات الاستخبارات يمكن أن تساعد الحكومات والشركات على تسريع اكتشاف التهديدات الصادرة عن الجهات المعادية والرد عليها.

أضاف: "نحن على حق في القلق بشأن التأثير على الأمن السيبراني. لكن أعتقد أن الذكاء الاصطناعي، على عكس ما هو متوقع، يعزز دفاعنا في مجال الأمن السيبراني.

تتزايد هجمات الأمن السيبراني من حيث الحجم والتعقيد حيث تستخدمها الجهات الخبيثة بشكل متزايد كوسيلة لممارسة السلطة وابتزاز الأموال.


كلفت الهجمات السيبرانية الاقتصاد العالمي ما يقدر بنحو 8 تريليون دولار في عام 2023 - وهو مبلغ من المقرر أن يرتفع إلى 10.5 تريليون دولار بحلول عام 2025، وفقًا لشركة الأبحاث السيبرانية Cybersecurity Ventures.

وقال تقرير صدر في يناير من المركز الوطني للأمن السيبراني في بريطانيا ــ وهو جزء من GCHQ، وكالة الاستخبارات في البلاد ــ إن الذكاء الاصطناعي لن يؤدي إلا إلى زيادة تلك التهديدات، وخفض الحواجز أمام دخول المتسللين السيبرانيين، وتمكين المزيد من الأنشطة السيبرانية الضارة، بما في ذلك هجمات برامج الفدية.

"يساعد الذكاء الاصطناعي الأشخاص الذين يدافعون بشكل غير متناسب لأنك تحصل على أداة يمكن أن تؤثر عليه على نطاق واسع.


قال بيتشاي إن الذكاء الاصطناعي يعمل أيضًا على تقليل الوقت اللازم للمدافعين لاكتشاف الهجمات والرد عليها، موضحاً أن هذا من شأنه أن يقلل مما يعرف بمعضلة المدافعين، حيث يجب أن يكون المتسللون السيبرانيون ناجحين مرة واحدة فقط لمهاجمة النظام بينما يجب أن يكون المدافع ناجحًا في كل مرة من أجل حمايته.


وقال: "يساعد الذكاء الاصطناعي الأشخاص الذين يدافعون بشكل غير متناسب لأنك تحصل على أداة يمكن أن تؤثر عليه على نطاق واسع مقابل الأشخاص الذين يحاولون استغلالهم".

وأضاف: "لذلك، في بعض النواحي، نحن نفوز بالسباق".

أعلنت جوجل الأسبوع الماضي عن مبادرة جديدة تقدم أدوات الذكاء الاصطناعي واستثمارات البنية التحتية المصممة لتعزيز الأمن عبر الإنترنت. قالت الشركة في بيان لها إن أداة مجانية مفتوحة المصدر يطلق عليها اسم Magika تهدف إلى مساعدة المستخدمين على اكتشاف البرامج الضارة – البرامج الضارة – بينما يقترح الكتاب الأبيض التدابير والأبحاث وينشئ حواجز حماية حول الذكاء الاصطناعي.

وقال بيتشاي إن الأدوات يتم استخدامها بالفعل في منتجات الشركة، مثل Google Chrome وGmail، بالإضافة إلى أنظمتها الداخلية.

المصدر: بوابة الوفد

إقرأ أيضاً:

لطافتك تكلف الذكاء الاصطناعي الملايين!

في زمن تتسارع فيه علاقتنا بالتكنولوجيا، يبدو أن كلمات بسيطة مثل "من فضلك" و"شكرًا" قد تحمل ثمنًا غير متوقع. فقد أثار أحد مستخدمي منصة X  سؤالًا طريفًا لكنه عميق الدلالة، قال فيه:

كم أنفقت OpenAI على الكهرباء لأن الناس يقولون "من فضلك" و"شكرًا" لنماذج الذكاء الاصطناعي؟

وجاء الرد سريعًا من سام ألتمان، الرئيس التنفيذي لشركة OpenAI، مازحًا وبكل ثقة: "تلك الملايين كانت مُنفقة في مكانها الصحيح.. من يدري ما ستجلبه اللباقة!".

 

 

لكن خلف هذا التعليق، انطلقت تساؤلات جدّية: هل نُهدر الطاقة والموارد حين نخاطب الذكاء الاصطناعي بأدب؟ أم أن للّباقة مع الآلات قيمة تتجاوز الكلفة؟.



المجاملة ليست مجرد تكلفة… بل أسلوب تعامل



تشير تقديرات الخبراء إلى أن كل تفاعل مع روبوت دردشة يكلف الشركة مالًا وطاقة، وكل كلمة إضافية تُرسل كجزء من الطلب تستهلك المزيد من الموارد.

قال البروفيسور نيل جونسون من جامعة جورج واشنطن:"كل طلب موجه إلى روبوت مثل ChatGPT يتطلب حركة إلكترونات، وهذه الحركة تحتاج طاقة. والسؤال هو: من يدفع هذه الفاتورة؟".
ويشبّه جونسون الكلمات الإضافية بورق التغليف المستخدم لتغليف عطر، إذ تحتاج النماذج اللغوية إلى "اختراق" هذا التغليف للوصول إلى مضمون الطلب، مما يشكل عبئًا إضافيًا.

 

اقرأ أيضاً.. أول طالب ذكاء اصطناعي في مقاعد الدراسة الجامعية


لكن رغم هذا، يرى كثيرون أن اللطافة مع الذكاء الاصطناعي ليست فقط عادة بشرية أو مظهرًا من مظاهر "إضفاء الطابع الإنساني" على الآلة، بل إن لها تأثيرًا مباشرًا على جودة التفاعل.

أخبار ذات صلة الذكاء الاصطناعي يربك نقابة المحامين في كاليفورنيا حاسوب حراري جديد يفتح آفاقًا ثورية لتسريع الذكاء الاصطناعي

وأوضح كيرتيس بيفرز، مدير في فريق تصميم Microsoft Copilot، أن استخدام اللغة المهذبة يضبط نبرة الرد من قبل النموذج، فعندما يلتقط الذكاء الاصطناعي إشارات اللباقة، يكون أكثر ميلًا للرد بنفس الأسلوب.



هل المجاملة ضرورة ثقافية؟

حتى وإن لم تكن الآلة "تشعر"، فإن طريقة تعامل البشر معها قد تُشكّل انعكاسًا لطريقة تعاملهم مع بعضهم البعض لاحقًا.

 

وأشارت شيري توركل، أستاذة في معهد MIT، أن الذكاء الاصطناعي ليس "واعيًا" فعلًا، لكنه لا يزال "حيًا" ليبرّر إظهار المجاملة له.


وتشير إلى تجربة "تماغوتشي" في التسعينيات، حيث أصيب الأطفال بالحزن الحقيقي عند "وفاة" حيواناتهم الرقمية، مما يُظهر كيف يمكن للعلاقات بين البشر والكائنات غير الحية أن تؤثر نفسيًا.

 



اقرأ أيضاً.. حين يرى الذكاء الاصطناعي ما لا يراه الطبيب.. قفزة في تشخيص قصر النظر


اللباقة بدافع الخوف

أجريت دراسة في ديسمبر 2024 من قبل شركة Future أظهرت أن نسبة كبيرة من المستخدمين يتعاملون بلباقة مع الذكاء الاصطناعي:

67% من المستخدمين في الولايات المتحدة يستخدمون عبارات مجاملة،و71% من المستخدمين في المملكة المتحدة يفعلون الشيء ذاته.

لكن المفارقة أن 12% من المستخدمين يتحلون باللباقة بدافع الخوف من "العواقب المستقبلية" لسوء التعامل مع التكنولوجيا.



المجاملة... تكلفة مستحقة؟

بين التكاليف الكهربائية والبيئية، وبين الأبعاد الثقافية والإنسانية، يبدو أن المجاملة في التفاعل مع الذكاء الاصطناعي ليست مجرد تصرف عابر. بل إنها تحمل وزنًا أخلاقيًا وسلوكيًا، وقد تشكّل مستقبل العلاقة بين الإنسان والآلة.


إسلام العبادي(أبوظبي)

 

مقالات مشابهة

  • الرئيس الصيني: الذكاء الاصطناعي سيغير أسلوب الحياة البشرية بشكل جذري
  • جامعة أبوظبي تنظم «يوم الأمن السيبراني 5.0» في العين
  • مختص يوضح الأسباب التي تدفع الأفراد إلى اللجوء للذكاء الاصطناعي .. فيديو
  • جامعة أبوظبي تنظم فعالية حول تعزيز الوعي بالأمن السيبراني
  • ‎13مليار ريال قيمة سوق الأمن السيبراني للعام 2024
  • برعاية وزير الداخلية.. مديرية الدفاع المدني تستضيف مؤتمر تهديدات الأسلحة غير التقليدية بالشرق الأوسط “NCT Middle East Riyadh 2025”
  • لطافتك تكلف الذكاء الاصطناعي الملايين!
  • جهاز ذكي يساعد المكفوفين على التنقل باستخدام الذكاء الاصطناعي
  • جوجل تكشف لأول مرة عن عدد مستخدمي Gemini حول العالم
  • مكافحة المخدرات تطلق ملتقى الذكاء الاصطناعي الأول بمدينة الرياض