كاسبرسكي تدعو إلى الاستخدام المسؤول للذكاء الاصطناعي في الأمن السيبراني
تاريخ النشر: 16th, October 2023 GMT
كشفت شركة كاسبرسكي عن ورقة بيضاء توضح قائمة مبادئها الأخلاقية التي ستلتزم بها خلال تطويرها واستخدامها الأنظمة العاملة بالذكاء الاصطناعي أو تعلم الآلة. فنظراً لدور خوارزميات الذكاء الاصطناعي المتنامي في مجال الأمن السيبراني، توضح هذه المبادئ كيفية ضمان كاسبرسكي لموثوقية تقنياتها القائمة على الذكاء الاصطناعي، وترشد اللاعبين الآخرين في الصناعة نحو تقليص المخاطر المرتبطة باستخدامهم خوارزميات الذكاء الاصطناعي وتعلم الآلة.
لا يخفى على أحد أن شركة كاسبرسكي تستخدم خوارزميات تعلم الآلة (أحد فروع الذكاء الاصطناعي) في حلولها منذ ما يقرب من 20 عاماً. حيث مكّنت قوة الذكاء الاصطناعي المدعومة بالخبرات البشرية حلول كاسبرسكي من اكتشاف مجموعة متنوعة من التهديدات الجديدة والتصدي لها كل يوم. إذ يلعب تعلم الآلة دوراً مهماً في أتمتة اكتشاف التهديدات، وتحديد مواقع الخلل، وزيادة دقة التعرف على البرمجيات الخبيثة. لذلك، صاغت كاسبرسكي مبادئ أخلاقية لتطوير واستخدام الذكاء الاصطناعي وتعلم الآلة، وشاركتها بشكل مفتوح مع الصناعة لتحفيز الابتكار وتعزيز الحوار المتعدد لتأكيد استخدام الذكاء الاصطناعي لتحسين العالم للجميع.
طرحت كاسبرسكي ستة مبادئ يجب أن تؤخذ في عين الاعتبار عند تطوير واستخدام الذكاء الاصطناعي وتعلم الآلة، وهي:
الشفافية؛
الأمان؛
التحكم البشري؛
الخصوصية؛
الالتزام بأغراض الأمن السيبراني؛
الانفتاح على الحوار.
يرمز مبدأ الشفافية إلى إيمان كاسبرسكي الراسخ بواجب كل شركة بإبلاغ عملائها عن استخدامها تقنيات الذكاء الاصطناعي وتعلم الآلة في منتجاتها وخدماتها. وتلتزم كاسبرسكي بهذا المبدأ من خلال تطوير أنظمة ذكاء اصطناعي وتعلم آلة مفهومة إلى أقصى حد ممكن، بالإضافة إلى توفير معلومات إلى أصحاب المصالح تشرح طريقة تنفيذ واستخدام حلول كاسبرسكي لتقنيات الذكاء الاصطناعي وتعلم الآلة.
أمّا مبدأ السلامة، فتلتزم كاسبرسكي به عن طريق ممارسة مجموعة واسعة من التدابير الصارمة لضمان جودة أنظمة الذكاء الاصطناعي وتعلم الآلة، ويتضمن ذلك مراجعات أمنية في أنظمة الذكاء الاصطناعي وتعلم الآلة، وخطوات تقليل الاعتماد على مجموعات البيانات الخارجية في تدريب الحلول العاملة بالذكاء الاصطناعي، وتفضيل تقنيات تعلم الآلة السحابية التي تتمتع بالحماية اللازمة بدلاً من تلك المثبتة على أجهزة العملاء.
يشير مبدأ التحكم البشري إلى أهمية معايرة أنظمة الذكاء الاصطناعي وتعلم الآلة عندما يتعلق الأمر بتحليل التهديدات المعقدة، ولا سيما التهديدات المتقدمة المستعصية (APT). ولتوفير حماية فعالة ضد التهديدات المتطورة باستمرار، تلتزم كاسبرسكي بالحفاظ على التحكم البشري كعنصر أساسي في جميع أنظمة الذكاء الاصطناعي وتعلم الآلة لديها.
المبدأ الأخلاقي الأساسي التالي هو ضمان خصوصية الأفراد عند استخدام أنظمة الذكاء الاصطناعي وتعلم الآلة. ونظراً لاعتماد تدريب مثل هذه الأنظمة بشكل كبير على البيانات الضخمة، يجب على الشركات التي تستخدم الذكاء الاصطناعي وتعلم الآلة أن تأخذ خصوصية الأفراد بالحسبان في كل خطوة. من جهتها، تحترم كاسبرسكي خصوصية الأفراد وتطبق عدداً من التدابير الفنية والتنظيمية لحماية كل من بيانات الأفراد وأنظمتها، كما تضمن ممارسة مستخدميها لحقهم في الخصوصية بشكل حقيقي.
يمثل المبدأ الأخلاقي الخامس التزام كاسبرسكي بحصر استخدام أنظمة الذكاء الاصطناعي وتعلم الآلة في الأغراض الدفاعية فقط. حيث تواصل الشركة جهودها لبناء عالم أكثر أماناً وتثبت التزامها بحماية مستخدميها وبياناتهم عبر التركيز حصرياً على التقنيات الدفاعية.
أخيراً، يشير المبدأ الأخير إلى تقبُّل كاسبرسكي للحوار مع جميع أصحاب المصلحة بغرض مشاركة أفضل ممارسات الاستخدام الأخلاقي للذكاء الاصطناعي. وفي هذا الصدد، تؤكد كاسبرسكي استعدادها لإجراء مناقشات مع جميع الأطراف المهتمة، حيث تؤمن شركة كاسبرسكي بأن التعاون المستمر بين جميع أصحاب المصالح هو الطريق الوحيد لتجاوز العقبات وتحفيز الابتكار وفتح آفاق جديدة.
قال الرئيس التقني لشركة كاسبرسكي «أنطون إيفانوف»: «الذكاء الاصطناعي قادر على إفادة صناعة الأمن السيبراني من عدة نواحٍ، مما يعزز المرونة السيبرانية لمجتمعنا. ولكن، مثل أي تقنية أخرى لا تزال في مرحلة مبكرة من تطورها، لا يخلو الذكاء الاصطناعي من المخاطر. وللتعامل مع المخاوف المحيطة بالذكاء الاصطناعي، أصدرت كاسبرسكي مبادئها الأخلاقية لمشاركة أفضل ممارساتها حول تطبيق الذكاء الاصطناعي ودَعت إلى إجراء حوار مفتوح على مستوى الصناعة لوضع مبادئ توجيهية واضحة تحدد ما يجعل تطوير الحلول القائمة على الذكاء الاصطناعي وتعلم الآلة سليماً أخلاقياً.»
قدمت شركة كاسبرسكي مبادئها الأخلاقية هذه كجزء من منتدى حوكمة الإنترنت الذي تنظمه الأمم المتحدة، إذ ينعقد المنتدى في مدينة كيوتو في اليابان بين 8 إلى 12 أكتوبر. ويعد الذكاء الاصطناعي والتقنيات الناشئة موضوعين رئيسيين في نسخة هذا العام من المنتدى، لذا نظمت كاسبرسكي ورشة عمل لمناقشة المبادئ الأخلاقية لتطوير الذكاء الاصطناعي واستخدامه، وطرحت الاعتبارات الفنية والقانونية للمناقشة.
تعد هذه المبادئ الأخلاقية امتداداً لمبادرة كاسبرسكي العالمية للشفافية التي تعزز مبادئ الشفافية والمساءلة بين مزودي الحلول التقنية في سبيل بناء عالم أكثر مرونة وأماناً سيبرانياً. للتعرّف أكثر على مبادرة ومبادئ كاسبرسكي للشفافية، قدم طلباً لزيارة مركز كاسبرسكي للشفافية.
المصدر: بوابة الوفد
إقرأ أيضاً:
كيف سيغير وكلاء الذكاء الاصطناعي هجمات سرقة بيانات الاعتماد
شهدت هجمات "تعبئة بيانات الاعتماد" تأثيرًا هائلًا في عام 2024، حيث أدت إلى دوامة مدمرة من عدوى برامج سرقة المعلومات وتسريبات البيانات.
وفي ظل هذا المشهد الأمني المتوتر، قد تزداد الأمور سوءًا مع ظهور "الوكلاء الحاسوبيين" (Computer-Using Agents)، وهي فئة جديدة من وكلاء الذكاء الاصطناعي تُتيح أتمتة مهام الويب الشائعة بتكلفة وجهد منخفضين، بما في ذلك تلك التي يؤديها المهاجمون عادةً.
يُعد سرقة بيانات الاعتماد الإجراء الأول للمهاجمين في عام 2023/24، حيث شكلت هذه البيانات ثغرة استغلالية في 80% من هجمات تطبيقات الويب.
ليس من المستغرب أن المليارات من بيانات الاعتماد المسروقة متداولة على الإنترنت، ويمكن للمهاجمين الحصول على آخر التسريبات مقابل مبلغ يبدأ من 10 دولارات على المنتديات الإجرامية.
وقد استفاد السوق الإجرامي من التسريبات الكبيرة التي شهدها عام 2024، مثل الهجمات التي استهدفت عملاء Snowflake، حيث تم استخدام بيانات الاعتماد المسربة من تفريغات التسريبات ومصادر بيانات مخترقة نتيجة حملات تصيد جماعي وعدوى ببرامج سرقة المعلومات، مما أدى إلى اختراق 165 مستأجرًا لعملاء الشركة وملايين السجلات المسربة.
أتمتة هجمات بيانات الاعتماد في عصر SaaSلم تعد تقنيات التخمين العشوائي وتعبئة بيانات الاعتماد كما كانت في السابق؛ فقد تغيرت بنية تكنولوجيا المعلومات الحديثة لتصبح أكثر لامركزية مع ظهور مئات التطبيقات والخدمات عبر الإنترنت، وتوليد آلاف الهويات داخل كل مؤسسة.
ولم تعد بيانات الاعتماد تُخزن حصريًا في أنظمة مثل Active Directory، بل باتت موزعة في أماكن متعددة على الإنترنت.
تواجه الأدوات التقليدية صعوبة في التعامل مع التعقيدات الجديدة لتطبيقات الويب الحديثة، التي تتميز بواجهات رسومية متطورة وحلول حماية مثل CAPTCHA والحد من معدلات الطلب، مما يستدعي تطوير أدوات مخصصة لكل تطبيق على حدة.
وفي ظل وجود حوالي 15 مليار بيانات اعتماد مسربة متاحة، رغم أن الغالبية منها قديمة وغير صالحة، فإن هناك فرصة كبيرة للمهاجمين إذا تمكنوا من تحديد البيانات الفعّالة والاستفادة منها.
فرصة ضائعة للمهاجمين؟رغم أن نسبة البيانات الاعتمادية الصالحة لا تتجاوز 1% في معظم مجموعات المعلومات، إلا أن ظاهرة إعادة استخدام كلمات المرور تتيح للمهاجمين استغلال بيانات اعتماد واحدة للوصول إلى حسابات متعددة في تطبيقات مختلفة.
تخيل سيناريو يتم فيه استخدام بيانات اعتماد صالحة على نطاق واسع، مما يسمح للمهاجمين بتوسيع نطاق هجماتهم بشكل جماعي عبر تطبيقات متعددة دون الحاجة إلى تطوير أدوات جديدة لكل تطبيق.
دور "الوكلاء الحاسوبيين" في توسيع نطاق الهجماتلقد كانت تأثيرات الذكاء الاصطناعي في الهجمات السابقة محصورة في استخدام النماذج اللغوية الكبيرة لإنشاء رسائل تصيد أو لتطوير برمجيات خبيثة بمساعدة الذكاء الاصطناعي، ولكن مع إطلاق "OpenAI Operator"، يظهر نوع جديد من "الوكلاء الحاسوبيين" قادر على أداء مهام الويب البسيطة بشكل مشابه للبشر دون الحاجة إلى تنفيذ برامج مخصصة.
تتيح هذه التقنية الجديدة للمهاجمين إمكانية تنفيذ هجمات تعبئة بيانات الاعتماد على نطاق واسع وبجهد أقل، مما يجعل عملية المسح الآلي للمعلومات واستغلالها أكثر سهولة حتى للمبتدئين.
استغلال بياناتتشير التطورات الحالية إلى أن التحديات الأمنية المتعلقة بهجمات بيانات الاعتماد قد تصل إلى مستويات جديدة مع دخول تقنيات الأتمتة الذكية القائمة على الذكاء الاصطناعي إلى الساحة.
إذ يمكن لهذه التكنولوجيا أن تمنح المهاجمين القدرة على استغلال بيانات الاعتماد المسروقة على نطاق أوسع، مما يحول الهجمات من عمليات محدودة النطاق إلى تهديدات منهجية واسعة النطاق.
في هذا السياق، يصبح من الضروري على المؤسسات تكثيف جهودها لتعزيز دفاعاتها على سطح الهجمات الأمنية والتركيز على إصلاح الثغرات المتعلقة بالهوية قبل أن يستغلها المهاجمون.