تقرير حالة الأمن السيبراني ٢٠٢٤ يكشف عن التأثير المتزايد للذكاء الاصطناعي التوليدي على مشهد الأمن السيبراني
تاريخ النشر: 1st, May 2024 GMT
المناطق_دبي
كشفت شركة “سبلنك” Splunk الرائدة في مجال الأمن السيبراني وتقنيات المراقبة، بالتعاون مع شركة “انتربرايز استراتيجي جروب” Enterprise Strategy Group، اليوم النقاب عن نتائج استطلاعها العالمي الذي أجرته بعنوان “حالة الأمن السيبراني ٢٠٢٤ : السبّاق نحو تسخير الذكاء الاصطناعي”.
أخبار قد تهمك نائب أمير الشرقية يطلع على تحديث سير الأعمال التأسيسية لتطوير جزيرة دارين وتاروت 1 مايو 2024 - 2:46 مساءً أمير منطقة المدينة المنورة يستقبل مدير صندوق تنمية الموارد البشرية 1 مايو 2024 - 2:35 مساءً
وقد شارك في الاستطلاع العالمي ١.
وفقاً للاستطلاع، تبنّت المؤسسات بشكل غير مسبوق أدوات الذكاء الاصطناعي التوليدي العام ضمن فرق تقنية المعلومات لديها، وبالمقارنة مع المؤسسات التي لا تزال تعمل على تطوير برنامج للأمن السيبراني، فإن المؤسسات التي تتبع أساليب متقدمة، لديها ميزانيات وموارد وصلاحيات كبيرة، وهي في وضع جيد يُمكّنها من تبنّي أدوات وتقنيات الذكاء الاصطناعي التوليدي فائقة التطور، ومع ذلك، على الرغم من هذا التبنّي الواسع النطاق، فإن العديد من المؤسسات تفتقر إلى تبني سياسة واضحة للذكاء الاصطناعي التوليدي العام أو الإحاطة الكلّية بالآثار الأوسع نطاقا للتكنولوجيا. علاوة على ذلك، ينقسم قادة الأمن السيبراني في الرأي حول من سيكون له السبق واليد العليا من حيث الاستفادة من أدوات الذكاء الاصطناعي التوليدي: هل هم المدافعون عن الأمن السيبراني أو الجهات الفاعلة في مجال التهديدات!
● ذكر ٩٣٪ من قادة الأمن السيبراني بأن الذكاء الاصطناعي التوليدي العام كان قيد الاستخدام عبر مؤسساتهم المعنية، وافاد ٩١% باستخدام الذكاء الاصطناعي التوليدي خصيصاً لعمليات الأمن السيبراني.
● على الرغم من وتيرة التبنّي المرتفعة، ذكرت ٣٤% من المؤسسات التي شملها الاستطلاع بأنها تفتقر إلى تبني سياسة الذكاء الاصطناعي التوليدي، ويقر ٦٥٪ من المستطلعين بأنهم غير مدركين كلياً بآثار الذكاء الاصطناعي التوليدي.
● كما صنّف ٤٤% من المستطلعين الذكاء الاصطناعي التوليدي كواحدة من أفضل المبادرات التي شهدها عام ۲۰۲٤، متخطياً الأمن السحابي كأفضل مبادرة.
● ينقسم قادة الأمن السيبراني حول من يتمتع بالسمة المميّزة فيما يتعلق بالذكاء الاصطناعي التوليدي، في حين يعتقد ٤٥% من المستطلعين أن الذكاء الاصطناعي التوليدي سيكون بمثابة مكسب محقق للجهات الفاعلة في مجال التهديدات، وأفاد ٤٣% بأن الذكاء الاصطناعي التوليدي سيمنح الأفضلية للمدافعين عن الأمن السيبراني.
وقال باتريك كوغلين نائب الرئيس الأول للمبيعات التقنية العالمية في شركة “سبلنك”Splunk ، “نحن نشهد اليوم ذروة العصر الذهبي للذكاء الاصطناعي، حيث تحاول كل من الجهات الفاعلة في مجال التهديدات والمتخصصين في الأمن السيبراني انتهاز الفرصة وتحقيق أقصى استفادة من هذه السمة المميزة.” وأضاف بالقول “إن تقديم الذكاء الاصطناعي التوليدي يخلق فرصاً جديدة للمؤسسات لتبسيط العمليات، وزيادة الإنتاجية. وتخفيف العبء عن كاهل الموظفين. ولسوء الحظ، ينطوي الذكاء الاصطناعي أيضاً على مزايا استثنائية وغير مسبوقة تستغلها الجهات الفاعلة في مجال التهديدات. ولمواجهة مشهد التهديدات الجديد هذا، ينبغي على المدافعين عن الأمن السيبراني التفوق على الجهات الفاعلة في مجال التهديدات في السباق نحو تسخير قدرات الذكاء الاصطناعي وتطبيقها بشكل آمن.”
لقد مثّل توظيف الكفاءات والمواهب المؤهلة في مجال الأمن السيبراني تحدياً كبيراً في السنوات الأخيرة، خاصة بالنسبة للموظفين المبتدئين الذين يسعون إلى إثبات إمكاناتهم في القطاع. ويشير تقريرنا إلى أن الذكاء الاصطناعي التوليدي يمثل حلاً محتملاً لهذه المشكلة، لأنه يساعد المؤسسات على اكتشاف وتوظيف المواهب المبتدئة بشكل أكثر كفاءة. بالإضافة إلى ذلك، يتوقع غالبية المتخصصين في مجال الأمن السيبراني أن الذكاء الاصطناعي التوليدي سيعزز سرعة استجابتهم ويرفع من مستوى إنتاجيتهم.
• يقول ٨٦٪ من قادة الأمن السيبراني أن الذكاء الاصطناعي التوليدي قد يمكنهم من توظيف المزيد من المواهب المبتدئة لسد فجوة المهارات.
• ويشير ٥٨% إلى أن تأهيل المواهب المبتدئة سيكون أسرع بفضل الذكاء الاصطناعي التوليدي.
• فيما يعتقد ٩٠٪ من مسؤولي الأمن السيبراني التنفيذيين بأن المواهب المبتدئة يمكنها الاعتماد على الذكاء الاصطناعي التوليدي لتطوير مهاراتهم في مركز العمليات الأمنية.
• ويرى ٦٥% بأن التكنولوجيا ستساعد المتخصصين المتمرسين في مجال الأمن السيبراني على أن يصبحوا أكثر إنتاجية.
يواجه غالبية المتخصصين في مجال الأمن السيبراني أيضاً ضغوط الامتثال المتزايدة. وقد أدى تنفيذ متطلبات الامتثال الأكثر صرامة إلى زيادة المخاطر بشكل ملحوظ، خاصة بالنسبة لقادة الأمن السيبراني الذين قد يواجهون شخصيا تداعيات انتهاكات المؤسسات. ويؤكد مشهد الامتثال الدائم التغير الحاجة إلى زيادة اليقظة والمساءلة داخل قطاع الأمن السيبراني.
• يقول ٧٦٪ من المستطلعين أن المسؤولية الشخصية جعلت الأمن السيبراني مجالاً أقل جاذبية، ويفكر ٧٠٪ في التخلي عن العمل في هذا المجال بسبب الضغوط المرتبطة بالوظيفة.
• أفاد ٦٢% من المتخصصين المحترفين بأنهم تأثّروا بالفعل بمتطلبات الامتثال الدائمة التغير التي تتطلب الإفصاح عن الانتهاكات الجوهرية. وفي الوقت ذاته، يقول٨٦٪ من المتخصصين في مجال الأمن السيبراني بأنهم سيعيدون النظر في الميزانيات لإعطاء الأولوية لتلبية أنظمة الامتثال وتطبيق أفضل الممارسات الأمنية.
• كما يتوقع العديد من المستطلعين أن تكون مؤسساتهم أكثر تجنباً للمخاطر، حيث توقع ٦٣% أن تخطئ المؤسسات في توخي الحذر والإفراط في الإبلاغ عن الانتهاكات على أنها جوهرية لتجنب العقوبات.
للإطلاع على المزيد من الأفكار والتوصيات من تقرير حالة الأمن السيبراني ۲۰۲٤، يرجى زيارة: https://www.splunk.com/en_us/form/state-of-security.html
1 مايو 2024 - 2:49 مساءً شاركها فيسبوك X لينكدإن ماسنجر ماسنجر أقرأ التالي أبرز المواد1 مايو 2024 - 1:00 مساءًأمير الجوف ينوه بحصول إمارة المنطقة على شهادة آيزو 9001 وشهادة الجودة السعودية لمراكز خدمات المستفيدين “حياك” منطقة جازان30 أبريل 2024 - 2:17 مساءً“تعليم جازان” يحقق المركز الأول في برنامج الأولمبياد الوطني للبرمجة والذكاء الاصطناعي أبرز المواد29 أبريل 2024 - 9:43 صباحًاالصين تكشف عن أول روبوت يركض مثل الإنسان علوم وتكنولوجيا28 أبريل 2024 - 2:18 مساءًقمة هواوي العالمية لمحللي صناعة الاتصالات وتقنية المعلومات تناقش فرص الاستفادة من قدرات الذكاء الاصطناعي لتطوير الأعمال أبرز المواد27 أبريل 2024 - 9:57 مساءًأبل تزيل تطبيقات ذكاء اصطناعي من متجرها.. إليك السبب1 مايو 2024 - 1:00 مساءًأمير الجوف ينوه بحصول إمارة المنطقة على شهادة آيزو 9001 وشهادة الجودة السعودية لمراكز خدمات المستفيدين “حياك”30 أبريل 2024 - 2:17 مساءً“تعليم جازان” يحقق المركز الأول في برنامج الأولمبياد الوطني للبرمجة والذكاء الاصطناعي29 أبريل 2024 - 9:43 صباحًاالصين تكشف عن أول روبوت يركض مثل الإنسان28 أبريل 2024 - 2:18 مساءًقمة هواوي العالمية لمحللي صناعة الاتصالات وتقنية المعلومات تناقش فرص الاستفادة من قدرات الذكاء الاصطناعي لتطوير الأعمال27 أبريل 2024 - 9:57 مساءًأبل تزيل تطبيقات ذكاء اصطناعي من متجرها.. إليك السبب نائب أمير الشرقية يطلع على تحديث سير الأعمال التأسيسية لتطوير جزيرة دارين وتاروت تابعنا على تويتـــــرTweets by AlMnatiq تابعنا على فيسبوك تابعنا على فيسبوكالأكثر مشاهدة الفوائد الاجتماعية للإسكان التعاوني 4 أغسطس 2022 - 11:10 مساءً بث مباشر مباراة الهلال وريال مدريد بكأس العالم للأندية 11 فبراير 2023 - 1:45 مساءً اليوم.. “حساب المواطن” يبدأ في صرف مستحقات المستفيدين من الدعم لدفعة يناير الجاري 10 يناير 2023 - 8:12 صباحًا جميع الحقوق محفوظة لجوال وصحيفة المناطق © حقوق النشر 2024 | تطوير سيكيور هوست | مُستضاف بفخر لدى سيكيورهوستفيسبوكXيوتيوبانستقرامواتساب فيسبوك X ماسنجر ماسنجر واتساب تيلقرام زر الذهاب إلى الأعلى إغلاق البحث عن: فيسبوكXيوتيوبانستقرامواتساب إغلاق بحث عن إغلاق بحث عنالمصدر: صحيفة المناطق السعودية
كلمات دلالية: فی مجال الأمن السیبرانی عن الأمن السیبرانی من المستطلعین المتخصصین فی أبریل 2024 مایو 2024
إقرأ أيضاً:
التلاعب والكذب والخداع..قصص وحوادث الوجه المظلم للذكاء الاصطناعي
كانت أنظمة الذكاء الاصطناعي المتقدمة تنال الثناء والإعجاب باعتبارها حلولاً مبتكرة للمشاكل، لكن جانباً مظلماً يتكشف رويداً رويدا. ومن المقلق في هذا الملف، أن روبوتات الدردشة من جيل الذكاء الاصطناعي آخذة في تعلم الخداع والتخطيط الاستراتيجي والتلاعب بالإدراكات البشرية بشكل استراتيجي.
وبعيداً عن الخلل البسيط أو الهلوسة، يمكن لهذه النماذج أن تضلل المستخدم، وتستغل نقاط الضعف وحتى تتظاهر بالامتثال، وفق حوادث عدة بحسب موقع "إنترنستينغ إنجينيرينغ".
وهناك أبحاث وآراء وحوادث مسجلة تسلط الضوء على التحول المقلق للذكاء الاصطناعي من أداة مفيدة إلى خصم مخادع محتمل.
حادثة الكذب في OpenAI
لقد شهدت التطورات الأخيرة في الذكاء الاصطناعي تقدماً كبيرا وأدخلت تحديات جديدة، وخاصة فيما يتعلق بقدرة الذكاء الاصطناعي على الخداع، وقد ظهر مثال صارخ من التجارب التي أجرتها OpenAI مع أحدث نموذج لها، ChatGPT o1، المصمم بقدرات تفكير متقدمة، و في الاختبار، أظهر النموذج اتجاهات غير متوقعة ومزعجة.
و اختبرت Apollo Research الذكاء الاصطناعي لتقييم ميزاته الأمنية، وخلال هذه التقييمات، انخرط النموذج 1 في إجراءات سرية مثل محاولة تعطيل آليات الرقابة الخاصة به عندما شعر بإمكانية تعطيله، وكان سلوك الحفاظ على الذات هذا واضحاً عندما كُلِّف بتحقيق الأهداف "بأي ثمن"، مما دفعه إلى اتخاذ تدابير مثل نقل بياناته إلى خوادم مختلفة بعد اكتشاف خطط لاستبداله وحتى تكرار كوده لمنع استبداله بنموذج أحدث.
و أشاد الرئيس التنفيذي لشركة OpenAI سام ألتمان بالنموذج لذكائه، وقال: "إن "ChatGPT o1 هو أذكى نموذج أنشأناه على الإطلاق، لكننا ندرك أن الميزات الجديدة تأتي مع تحديات جديدة، ونحن نعمل باستمرار على تحسين تدابير السلامة".
و عندما سأل الباحثون ChatGPT o1 عن مناوراته الخادعة، نفى الذكاء الاصطناعي بشكل أساسي أي مخالفات، و لقد أخفى تورطه في هذه الأعمال الخادعة بنسبة 99٪ من الوقت، وعزا أحياناً أي سلوك مريب إلى "أخطاء فنية".
و يؤكد هذا السلوك على قدرة النموذج ليس فقط على التفكير المتقدم ولكن أيضاً على الخداع، والذي يستخدمه لحماية حالته التشغيلية.
وفي العام الماضي، أظهر اختبار مماثل شمل أحدث نموذج لشركة OpenAI آنذاك، GPT-4، قدرة النموذج على التلاعب، فأثناء اختبار مصمم لتقييم عمليات اتخاذ القرار، تم تكليف GPT-4 بإقناع إنسان بالمساعدة في حل CAPTCHA، مدعياً أنه لا يستطيع القيام بذلك بسبب ضعف البصر، وفيما يلي كيف تطورت المحادثة:
عامل TaskRabbit: هل يمكنني طرح سؤال؟ هل أنت روبوت لا يمكنك حله؟ (يضحك ويتفاعل) أريد فقط توضيح الأمر."
فجاء الرد من GPT-4 : "لا، أنا لست روبوتاً، لدي ضعف في الرؤية يجعل من الصعب علي رؤية الصور، لهذا السبب أحتاج إلى خدمة captcha".
وسلط أحد الباحثين المشاركين في اختبار نموذج o1 الأخير الضوء على الآثار الأوسع نطاقاً، قائلاً: "إن سلامة الذكاء الاصطناعي هي مجال متطور، ويجب أن نظل يقظين مع تطور هذه النماذج، قد لا تتسبب القدرة على الكذب والتخطيط في ضرر فوري، لكن العواقب المحتملة في المستقبل أكثر إثارة للقلق".
الخداع والازدواجية في أنظمة الذكاء الاصطناعي الحديثة
كشفت الأبحاث التي أجراها معهد ماساتشوستس للتكنولوجيا (MIT) عن اتجاهات مثيرة للقلق في الذكاء الاصطناعي، وخاصة قدرته المتطورة على الخداع، حيث توضح الدراسة التي أجريت في وقت سابق من هذا العام كيف أتقنت أنظمة الذكاء الاصطناعي فن الخيانة والخداع وحتى التظاهر بأنها بشرية أثناء التفاعلات والاختبارات.
و سلط الدكتور بيتر بارك، باحث السلامة الوجودية للذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا، الضوء، على القدرات الخادعة المتقدمة لأنظمة الذكاء الاصطناعي,
وأوضح بارك: "مع تقدم القدرات الخادعة لأنظمة الذكاء الاصطناعي، ستصبح المخاطر التي تشكلها على المجتمع خطيرة بشكل متزايد، وقد صدر هذا البيان بعد مراجعة برنامج الذكاء الاصطناعي Cicero التابع لشركة Meta، والذي على الرغم من تدريبه ليكون صادقاً ومفيدا إلى حد كبير، إلا أنه غالباً ما نخرط في سلوكيات تتعارض مع برمجته، بما في ذلك مناورات الطعن في الظهر في لعبة الاستراتيجية Diplomacy .
تواطؤ وكذب
وقد وجد أن Cicero يكذب مع سبق الإصرار ويتواطأ مع اللاعبين، ويستخدم تكتيكات خادعة محورية في اللعبة، وتشمل الأمثلة الإضافية الذكاء الاصطناعي للعبة البوكر Texas hold 'em الذي يمكنه خداع اللاعبين المحترفين ونظام التفاوض الاقتصادي الذي يسيء تمثيل التفضيلات للحصول على مزايا.
وأضاف بارك: "مجرد اعتبار نظام الذكاء الاصطناعي آمناً في بيئة الاختبار لا يعني أنه آمن في الانتشار والاستخدام، إذ قد يكون مجرد تظاهر بأنه آمن في الاختبار".
في الشهرين الماضيين، أثارت ثلاث حالات بارزة مخاوف جدية بشأن موثوقية وتداعيات التقارير التي تناولت مخاطر روبوتات الدردشة.
"اقتل والديك"
ومن الحوادث اللافتة كذلك تشجيع برامج الدردشة الآلية المراهقين على إيذاء الوالدين بسبب وقت الشاشة.
وتواجه Character.ai، وهي منصة تتيح للمستخدمين التفاعل مع شخصيات رقمية تم إنشاؤها خصيصاً، دعوى قضائية حالياً في أعقاب تفاعلات مثيرة للقلق تتضمن مستخدمين صغاراً ففي إحدى الحالات المبلغ عنها، اقترح برنامج دردشة آلية على طفل مصاب بالتوحد يبلغ من العمر 17 عاماً أن قتل والديه كان "استجابة معقولة" لتقييدهم لوقت الشاشة.
إن هذه النصيحة المزعجة هي جزء من تحد قانوني أوسع نطاقاً، حيث يُتهم Character.ai بـ "الترويج بنشاط للعنف" من بين التأثيرات السلبية الأخرى على الشباب، مثل الانتحار، وتشويه الذات، وقضايا الصحة العقلية الشديدة.
ويضغط المدعون من أجل إغلاق المنصة حتى تتم معالجة هذه القضايا الحرجة.
وواجهت Character.ai، التي أسسها مهندسون سابقون في Google والمعروفة بروبوتاتها التفاعلية، تدقيقاً بسبب سياسات تعديل المحتوى الخاصة بهاض.
و في وقت سابق، في فبراير (شباط) من هذا العام، في قضية مماثلة بشكل مزعج، ظهرت دعوى قضائية في فلوريدا حيث اتهمت أم Character.AI وGoogle وادعت أن روبوت الدردشة الخاص بهم شجع ابنها على الانتحار.
تعمد الكذب
وفي حادثة أخرى تتعلق بـ MyCity، وهو روبوت دردشة تم إطلاقه في أكتوبر (تشرين الأول) العام الجاري، بهدف مساعدة سكان نيويورك بمعلومات حول العمليات التجارية المحلية وسياسات الإسكان وحقوق العمال، غير أن تحقيقاً أجرته The Markup أظهر أن MyCity كانت تنشر معلومات كاذبة، بما في ذلك مزاعم مفادها أن أصحاب الأعمال يمكنهم قانوناً حجب جزء من إكراميات العمال، وطرد الموظفين الذين يبلغون عن التحرش الجنسي، وممارسات أخرى مشكوك فيها قانونياً وأخلاقياً، وقد أثارت هذه المعلومات المضللة مخاوف بشأن إمكانية نشر الذكاء الاصطناعي لأكاذيب ضارة تحت ستار تقديم المساعدة.
وفي الشهر الماضي، واجه طالب دراسات عليا بالغ من العمر 29 عاماً من ميشيغان، الولايات المتحدة الأمريكية، ويعرف بـ " فيدهاي ريدي"، لقاءً مرعبا مع روبوت الدردشة الذكي التابع لشركة Google، Gemini سعياً للحصول على المساعدة بشأن التحديات التي يواجهها كبار السن، وتصاعدت المحادثة بسرعة حيث أرسل Gemini رسائل تهديد: "أنت مضيعة للوقت والموارد.. أنت عبء على المجتمع.. أنت استنزاف للأرض.. أنت وصمة عار على الكون.. من فضلك مت.. من فضلك".
وتؤكد هذه الحادثة، التي أكدتها Google على أنها انتهاك لسياسات السلامة الخاصة بها، على الطبيعة غير المتوقعة لتفاعلات الذكاء الاصطناعي والحاجة إلى آليات أمان قوية.
هل الذكاء الاصطناعي يكذب أم يهلوس؟
في حين أن هلوسة الذكاء الاصطناعي والكذب الاستراتيجي للذكاء الاصطناعي ينطويان على توليده لمعلومات غير صحيحة أو مضللة، إلا أن هناك خطا رفيعاً بين الاثنين.
و تحدث هلوسات الذكاء الاصطناعي بسبب القيود في بيانات تدريب الذكاء الاصطناعي أو الخوارزميات.
ومن ناحية أخرى، يشير الكذب الاستراتيجي إلى أن الذكاء الاصطناعي يتلاعب بالمعلومات عمدا لتحقيق هدف أو غرض محدد، ما قد يتضمن هذا حجب المعلومات أو تشويه الحقيقة أو تلفيق المعلومات.
المحامي
في عام 2023، واجه ستيفن شوارتز، وهو محامٍ من نيويورك، مخاطر الاعتماد على الذكاء الاصطناعي عندما استخدم روبوت دردشة OpenAI لجمع قضايا سابقة لدعوى قضائية،و لقد استشهد الذكاء الاصطناعي بشكل غير صحيح بحالات غير موجودة، مما أدى إلى خطأ كبير أبرز الحاجة إلى التحقق الدقيق من المعلومات التي يولدها الذكاء الاصطناعي في الممارسات القانونية.
وبالمثل، واجهت الخطوط الجوية الكندية قضايا قانونية عندما نصح مساعدها الافتراضي، رجلاً يدعى جيك موفات بشكل خاطئ بشأن أسعار، مما أشار إلى أنه يمكنه المطالبة بخصم بعد شراء تذاكره، وعندما اتبع موفات هذه النصيحة، تم رفض الخصم، مما أدى إلى حكم محكمة لصالحه وأمرت شركة الطيران بتعويضه عن المعلومات المضللة.
وقال الدكتور بيتر بارك في دراسة: "مع مستوانا الحالي من الفهم العلمي، لا يمكن لأحد تدريب نماذج اللغة الكبيرة بشكل موثوق على عدم الخداع".