«كاسبرسكي» تدعو إلى ذكاء اصطناعي مسؤول
تاريخ النشر: 21st, January 2024 GMT
دعماً لالتزامها باتباع نهج شفاف ومسؤول خلال تطويرها التقنيات، كشفت شركة «كاسبرسكي» عن ورقة بيضاء توضح قائمة مبادئها الأخلاقية، التي ستلتزم بها خلال تطويرها واستخدامها الأنظمة العاملة بالذكاء الاصطناعي أو تعلّم الآلة. فنظراً لدور خوارزميات الذكاء الاصطناعي المتنامي في مجال الأمن السيبراني، توضح هذه المبادئ كيفية ضمان «كاسبرسكي» لموثوقية تقنياتها القائمة على هذا الذكاء، وترشد اللاعبين الآخرين في الصناعة، نحو تقليص المخاطر المرتبطة باستخدامهم الخوارزميات وتعلّم الآلة.
لا يخفى على أحد أن «كاسبرسكي» تستخدم خوارزميات تعلّم الآلة (أحد فروع الذكاء الاصطناعي) في حلولها، منذ ما يقرب من 20 عاماً. حيث مكّنتها قوة الذكاء المدعومة بالخبرات البشرية حلول كاسبرسكي من اكتشاف مجموعة متنوعة من التهديدات الجديدة والتصدي لها كل يوم، إذ يلعب تعلم الآلة دوراً مهماً في أتمتة اكتشاف التهديدات، وتحديد مواقع الخلل، وزيادة دقة التعرف إلى البرمجيات الخبيثة. لذلك، صاغت مبادئ أخلاقية لتطوير واستخدام الذكاء وتعلّم الآلة، وشاركتها بشكل مفتوح مع الصناعة، لتحفيز الابتكار وتعزيز الحوار المتعدد لتأكيد استخدام الذكاء الاصطناعي لتحسين العالم للجميع.
وطرحت «كاسبرسكي» ستة مبادئ، يجب أن تؤخذ في الحسبان عند تطوير واستخدام الذكاء الاصطناعي وتعلّم الآلة، وهي: الشفافية، الأمان؛ التحكم البشري؛ الخصوصية؛ الالتزام بأغراض الأمن السيبراني؛ الانفتاح على الحوار.
ويرمز مبدأ الشفافية إلى إيمان «كاسبرسكي» الراسخ بواجب كل شركة بإبلاغ عملائها عن استخدامها تقنيات الذكاء الاصطناعي وتعلّم الآلة في منتجاتها وخدماتها. وتلتزم بهذا المبدأ من خلال تطوير أنظمة ذكاء اصطناعي وتعلم آلة مفهومة إلى أقصى حد ممكن، إضافة إلى توفير معلومات إلى أصحاب المصالح تشرح طريقة تنفيذ واستخدام حلول التقنيات.
أمّا مبدأ السلامة، فتلتزم به عن طريق ممارسة مجموعة واسعة من التدابير الصارمة، لضمان جودة أنظمة الذكاء الاصطناعي وتعلّم الآلة، ويتضمن ذلك مراجعات أمنية في الأنظمة، وخطوات تقليل الاعتماد على مجموعات البيانات الخارجية في تدريب الحلول العاملة بالذكاء الاصطناعي، وتفضيل تقنيات تعلم الآلة السحابية التي تتمتع بالحماية اللازمة بدلاً من تلك المثبتة على أجهزة العملاء.
ويشير مبدأ التحكم البشري إلى أهمية معايرة الأنظمة، عندما يتعلق الأمر بتحليل التهديدات المعقدة، لا سيما التهديدات المتقدمة المستعصية «آي بي تي»، ولتوفير حماية فعالة ضد التهديدات المتطورة باستمرار، كما تلتزم بالحفاظ على التحكم البشري كعنصر أساسي في جميع أنظمة الذكاء الاصطناعي وتعلّم الآلة لديها.
المبدأ الأخلاقي الأساسي التالي هو ضمان خصوصية الأفراد عند استخدام الأنظمة، ونظراً لاعتماد تدريب مثل هذه الأنظمة بشكل كبير على البيانات الضخمة، يجب على الشركات التي تستخدم الذكاء الاصطناعي وتعلّم الآلة أن تأخذ خصوصية الأفراد في الحسبان في كل خطوة.
من جهتها، تحترم «كاسبرسكي» خصوصية الأفراد وتطبق عدداً من التدابير الفنية والتنظيمية لحماية كل من بيانات الأفراد وأنظمتها، كما تضمن ممارسة مستخدميها لحقهم في الخصوصية.
ويمثل المبدأ الأخلاقي الخامس الالتزام بحصر استخدام الأنظمة في الأغراض الدفاعية فقط. حيث تواصل الشركة جهودها لبناء عالم أكثر أماناً، وتثبت التزامها بحماية مستخدميها وبياناتهم عبر التركيز حصرياً على التقنيات الدفاعية.
أخيراً، يشير المبدأ الأخير إلى تقبُّل الحوار مع جميع أصحاب المصلحة بغرض مشاركة أفضل ممارسات الاستخدام الأخلاقي للذكاء الاصطناعي.
قال الرئيس التقني في «كاسبرسكي» أنطون إيفانوف: «الذكاء الاصطناعي قادر على إفادة صناعة الأمن السيبراني من عدة نواحٍ، ما يعزز المرونة السيبرانية لمجتمعنا. ولكن، مثل أي تقنية أخرى لا تزال في مرحلة مبكرة من تطورها، لا يخلو الذكاء الاصطناعي من المخاطر. وللتعامل مع المخاوف المحيطة بالذكاء الاصطناعي، أصدرت كاسبرسكي مبادئها الأخلاقية لمشاركة أفضل ممارساتها حول تطبيق الذكاء الاصطناعي، ودَعت إلى إجراء حوار مفتوح على مستوى الصناعة لوضع مبادئ توجيهية واضحة، ما يجعل تطوير الحلول القائمة على الذكاء الاصطناعي وتعلّم الآلة سليماً أخلاقياً».
صحيفة الخليج
المصدر: موقع النيلين
إقرأ أيضاً:
آبل تطور روبوتات شبيهة بالبشر.. بداية عصر جديد في الذكاء الاصطناعي
تواصل شركة آبل Apple، استكشاف آفاق جديدة في مجال الروبوتات، وفقا للمحلل التقني البارز Ming-chi Kuo، تطور الشركة الأمريكية مشروع روبوتي مبتكر يجمع بين التفاعل البشري والأنظمة الآلية، مع التركيز على تصميمات غير بشرية قد تشبه الروبوتات التي تعود إلى أسلوب Pixar.
وتستعرض ورقة بحثية نشرتها آبل بعض العناصر الأساسية التي قد تشكل أساس روبوتات المستهلكين في المستقبل، على الرغم من أن المشروع لا يزال في مراحل البحث والتطوير المبكرة.
ويصف Kuo هذا التقدم بأنه "دليل مبكر للمفهوم"، مشيرا إلى أن آبل قد أوقفت مشاريعها السابقة، مثل سيارة آبل، عند مراحل مشابهة، وبالنسبة للجدول الزمني المحتمل للإنتاج الضخم للروبوتات، يتوقع Kuo بلوغ ذلك بحلول عام 2028، رغم أن التوقعات تبقى محاطة بالتفاؤل.
من المثير للاهتمام أن المشروع يتسم بشفافية أقل مقارنة بمشاريع آبل السابقة. بينما عادةً ما تتجنب الشركة الإفصاح عن تفاصيل دقيقة حول مشروعاتها، فإن التطورات في مجال الروبوتات قد منحت الفرصة للعديد من الأبحاث والمبادرات من الجامعات ومراكز البحث، ما يبرز التحديات الملموسة في تطوير روبوتات ذات قدرات متقدمة.
ويبرز Kuo أن التصميمات "غير البشرية" توضح محاولة آبل للتمييز بين الأبحاث المتعلقة بالروبوتات الإنسانية وتلك التي لا تحاكي البشر، حيث يهدف المصطلح في الورقة البحثية إلى الإشارة إلى أنظمة يمكن أن تؤثر في الميزات البشرية دون أن تكون بالضرورة "إنسانية"، مثل الروبوتات ذات الأذرع الميكانيكية.
ومن أبرز التحديات التي قد تواجه آبل في تطوير روبوتات منزلية قائمة على تقنيات جديدة، هو إثبات ما إذا كان المستهلكون يحتاجون فعلا إلى روبوت منزلي يتجاوز الوظائف التقليدية مثل التنظيف. بينما تركز شركات أخرى مثل 1x وAppTronik على تطوير روبوتات صناعية يمكن إدخالها إلى البيوت، تبقى القضايا المتعلقة بالتكلفة والموثوقية حاسمة في تحقيق وصول جماهيري.
رغم أن هذه الاتجاهات تبدو بعيدة المنال، فإن سعي آبل نحو تطوير الروبوتات المنزلية يظهر إمكانيات واعدة، ولكنه يتطلب التغلب على تحديات ضخمة لتلبية احتياجات المستهلكين الحقيقية.