«كاسبرسكي» تدعو إلى ذكاء اصطناعي مسؤول
تاريخ النشر: 21st, January 2024 GMT
دعماً لالتزامها باتباع نهج شفاف ومسؤول خلال تطويرها التقنيات، كشفت شركة «كاسبرسكي» عن ورقة بيضاء توضح قائمة مبادئها الأخلاقية، التي ستلتزم بها خلال تطويرها واستخدامها الأنظمة العاملة بالذكاء الاصطناعي أو تعلّم الآلة. فنظراً لدور خوارزميات الذكاء الاصطناعي المتنامي في مجال الأمن السيبراني، توضح هذه المبادئ كيفية ضمان «كاسبرسكي» لموثوقية تقنياتها القائمة على هذا الذكاء، وترشد اللاعبين الآخرين في الصناعة، نحو تقليص المخاطر المرتبطة باستخدامهم الخوارزميات وتعلّم الآلة.
لا يخفى على أحد أن «كاسبرسكي» تستخدم خوارزميات تعلّم الآلة (أحد فروع الذكاء الاصطناعي) في حلولها، منذ ما يقرب من 20 عاماً. حيث مكّنتها قوة الذكاء المدعومة بالخبرات البشرية حلول كاسبرسكي من اكتشاف مجموعة متنوعة من التهديدات الجديدة والتصدي لها كل يوم، إذ يلعب تعلم الآلة دوراً مهماً في أتمتة اكتشاف التهديدات، وتحديد مواقع الخلل، وزيادة دقة التعرف إلى البرمجيات الخبيثة. لذلك، صاغت مبادئ أخلاقية لتطوير واستخدام الذكاء وتعلّم الآلة، وشاركتها بشكل مفتوح مع الصناعة، لتحفيز الابتكار وتعزيز الحوار المتعدد لتأكيد استخدام الذكاء الاصطناعي لتحسين العالم للجميع.
وطرحت «كاسبرسكي» ستة مبادئ، يجب أن تؤخذ في الحسبان عند تطوير واستخدام الذكاء الاصطناعي وتعلّم الآلة، وهي: الشفافية، الأمان؛ التحكم البشري؛ الخصوصية؛ الالتزام بأغراض الأمن السيبراني؛ الانفتاح على الحوار.
ويرمز مبدأ الشفافية إلى إيمان «كاسبرسكي» الراسخ بواجب كل شركة بإبلاغ عملائها عن استخدامها تقنيات الذكاء الاصطناعي وتعلّم الآلة في منتجاتها وخدماتها. وتلتزم بهذا المبدأ من خلال تطوير أنظمة ذكاء اصطناعي وتعلم آلة مفهومة إلى أقصى حد ممكن، إضافة إلى توفير معلومات إلى أصحاب المصالح تشرح طريقة تنفيذ واستخدام حلول التقنيات.
أمّا مبدأ السلامة، فتلتزم به عن طريق ممارسة مجموعة واسعة من التدابير الصارمة، لضمان جودة أنظمة الذكاء الاصطناعي وتعلّم الآلة، ويتضمن ذلك مراجعات أمنية في الأنظمة، وخطوات تقليل الاعتماد على مجموعات البيانات الخارجية في تدريب الحلول العاملة بالذكاء الاصطناعي، وتفضيل تقنيات تعلم الآلة السحابية التي تتمتع بالحماية اللازمة بدلاً من تلك المثبتة على أجهزة العملاء.
ويشير مبدأ التحكم البشري إلى أهمية معايرة الأنظمة، عندما يتعلق الأمر بتحليل التهديدات المعقدة، لا سيما التهديدات المتقدمة المستعصية «آي بي تي»، ولتوفير حماية فعالة ضد التهديدات المتطورة باستمرار، كما تلتزم بالحفاظ على التحكم البشري كعنصر أساسي في جميع أنظمة الذكاء الاصطناعي وتعلّم الآلة لديها.
المبدأ الأخلاقي الأساسي التالي هو ضمان خصوصية الأفراد عند استخدام الأنظمة، ونظراً لاعتماد تدريب مثل هذه الأنظمة بشكل كبير على البيانات الضخمة، يجب على الشركات التي تستخدم الذكاء الاصطناعي وتعلّم الآلة أن تأخذ خصوصية الأفراد في الحسبان في كل خطوة.
من جهتها، تحترم «كاسبرسكي» خصوصية الأفراد وتطبق عدداً من التدابير الفنية والتنظيمية لحماية كل من بيانات الأفراد وأنظمتها، كما تضمن ممارسة مستخدميها لحقهم في الخصوصية.
ويمثل المبدأ الأخلاقي الخامس الالتزام بحصر استخدام الأنظمة في الأغراض الدفاعية فقط. حيث تواصل الشركة جهودها لبناء عالم أكثر أماناً، وتثبت التزامها بحماية مستخدميها وبياناتهم عبر التركيز حصرياً على التقنيات الدفاعية.
أخيراً، يشير المبدأ الأخير إلى تقبُّل الحوار مع جميع أصحاب المصلحة بغرض مشاركة أفضل ممارسات الاستخدام الأخلاقي للذكاء الاصطناعي.
قال الرئيس التقني في «كاسبرسكي» أنطون إيفانوف: «الذكاء الاصطناعي قادر على إفادة صناعة الأمن السيبراني من عدة نواحٍ، ما يعزز المرونة السيبرانية لمجتمعنا. ولكن، مثل أي تقنية أخرى لا تزال في مرحلة مبكرة من تطورها، لا يخلو الذكاء الاصطناعي من المخاطر. وللتعامل مع المخاوف المحيطة بالذكاء الاصطناعي، أصدرت كاسبرسكي مبادئها الأخلاقية لمشاركة أفضل ممارساتها حول تطبيق الذكاء الاصطناعي، ودَعت إلى إجراء حوار مفتوح على مستوى الصناعة لوضع مبادئ توجيهية واضحة، ما يجعل تطوير الحلول القائمة على الذكاء الاصطناعي وتعلّم الآلة سليماً أخلاقياً».
صحيفة الخليج
المصدر: موقع النيلين
إقرأ أيضاً:
بين الابتكار والسيطرة.. هيمنة الذكاء الاصطناعي الصيني
ترجمة: نهى مصطفى -
خلال شهرين من إصدار شركة صينية غير معروفة تدعى DeepSeek نموذجًا جديدًا قويًا للذكاء الاصطناعي مفتوح المصدر، بدأ هذا الاختراق بالفعل في تحويل سوق الذكاء الاصطناعي العالمي.
يتميز DeepSeek-V3، كما يُطلق على نموذج اللغة الكبير المفتوح (LLM) الخاص بالشركة، بأداء ينافس أداء النماذج من أفضل المختبرات الأمريكية، مثل ChatGPT من OpenAI و Claude من Anthropic و Llama من Meta ، ولكن بجزء صغير من التكلفة. وقد أتاح هذا للمطورين والمستخدمين في جميع أنحاء العالم الوصول إلى الذكاء الاصطناعي المتطور بأقل تكلفة.
في يناير، أصدرت الشركة نموذجًا ثانيًا، DeepSeek-R1، يُظهر قدرات مماثلة لنموذج o1 المتقدم من OpenAI مقابل خمسة بالمائة فقط من السعر. ونتيجة لذلك، يشكلDeepSeek تهديدًا لقيادة الولايات المتحدة في مجال الذكاء الاصطناعي، مما يمهد الطريق للصين للحصول على مكانة عالمية مهيمنة على الرغم من جهود واشنطن للحد من وصول بكين إلى تقنيات الذكاء الاصطناعي المتقدمة.
يُبرز الصعود السريع لشركةDeepSeek حجم التحديات والمخاطر في سباق الذكاء الاصطناعي العالمي. فإلى جانب الاستفادة من الإمكانات الاقتصادية الهائلة لهذه التقنية، ستتمتع الدولة التي تطوّر نماذج الذكاء الاصطناعي الأساسية، التي تشكّل العمود الفقري لتطبيقات وخدمات المستقبل، بنفوذ واسع النطاق. ولا يقتصر هذا النفوذ على المعايير والقيم المضمّنة في هذه النماذج فحسب، بل يمتد أيضًا إلى منظومة أشباه الموصلات، التي تعد الركيزة الأساسية والبنية التحتية التقنية والمعالجة الحسابية اللازمة لتشغيل وتدريب نماذج الذكاء الاصطناعي، وتشمل الأجهزة والبرمجيات التي تمكّن الذكاء الاصطناعي من تنفيذ العمليات المعقدة بكفاءة. وتعكس القناعة الراسخة لدى كل من الصين والولايات المتحدة بأن هذه التقنيات قادرة على تحقيق تفوّق عسكري، الأهمية الاستراتيجية للريادة في هذا المجال وضرورة الحفاظ عليها على المدى الطويل.
ومع ذلك، فإن التركيز على أداء نموذج DeepSeek-V3 وتكاليف تشغيله المنخفضة قد يُغفل نقطة أكثر أهمية. فإحدى العوامل الرئيسة التي ساهمت في سرعة انتشار نماذج DeepSeek هي أنها مفتوحة المصدر، مما يتيح لأي شخص تنزيلها وتشغيلها ودراستها وتعديلها والبناء عليها، مع تحمّل تكلفة الطاقة الحاسوبية فقط. في المقابل، تكاد جميع نماذج الذكاء الاصطناعي الأمريكية المماثلة أن تكون ملكية خاصة، مما يحدّ من استخدامها ويزيد من تكاليف تبنيها من قِبل المستخدمين.
بدأت شخصيات بارزة في مجتمع الذكاء الاصطناعي الأمريكي يدركون بشكل متزايد المشكلات الناجمة عن التركيز على النماذج المغلقة المصدر. ففي أواخر يناير، أقرّ سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة ربما «أخطأت في قراءة التاريخ» بعدم تبنيها نهج الذكاء الاصطناعي مفتوح المصدر. وفي فبراير، توقّع إريك شميدت، الرئيس التنفيذي السابق لشركة Google، مستقبلًا يُهيمن فيه مزيج من النماذج المفتوحة والمغلقة على التطبيقات اليومية. من الواضح أن الولايات المتحدة لم تعد قادرة على الاعتماد كليًا على نماذج الذكاء الاصطناعي المغلقة التي تطورها الشركات الكبرى لمنافسة الصين، مما يستدعي من الحكومة الأمريكية تكثيف دعمها للنماذج مفتوحة المصدر، حتى مع استمرار جهودها في تقييد وصول الصين إلى التقنيات المتقدمة، مثل أشباه الموصلات وبيانات التدريب.
للحفاظ على هيمنتها، تحتاج الولايات المتحدة إلى وضع برنامج شامل لتطوير ونشر أفضل النماذج مفتوحة المصدر. لكن في الوقت ذاته، يجب عليها ضمان أن تظل الشركات الأمريكية الرائدة هي التي تبني أنظمة الذكاء الاصطناعي الأكثر كفاءة، والتي يُشار إليها أحيانًا باسم «أنظمة الحدود»، والتي غالبًا ما يتم تطويرها ضمن شركات خاصة ذات تمويل ضخم.
إلى جانب ذلك، ينبغي على واشنطن تبنّي أجندة سياسية أوسع تعزز مكانة الذكاء الاصطناعي الأمريكي مفتوح المصدر على الساحة الدولية، وتدعم بناء البنية التحتية الأساسية اللازمة للحفاظ على ريادتها في هذا المجال. ولا يقتصر ذلك على تحفيز تطوير النماذج مفتوحة المصدر داخل الولايات المتحدة، بل يشمل أيضًا تسهيل وصولها إلى المساهمين والمستخدمين في المجال الصناعي والأكاديمي والقطاع العام في الدول المتحالفة معها.
بدون هذه الخطوات الاستراتيجية، يُشير مشروع DeepSeek إلى مستقبل محتمل قد تستخدم فيه الصين نماذج مفتوحة المصدر قوية ومنخفضة التكلفة لتجاوز الولايات المتحدة في تطبيقات الذكاء الاصطناعي والتقنيات الرقمية.
لطالما كان الذكاء الاصطناعي مفتوح المصدر عاملًا رئيسيًا في التقدم التقني، رغم قلة الاهتمام السياسي به مقارنة بالأنظمة المغلقة. منذ ظهور ChatGPT عام 2022، بدأ يُنظر إلى نماذج الذكاء الاصطناعي الأساسية على أنها بمثابة «نظام تشغيل» جديد، حيث تعمل كجسر بين اللغة البشرية والبيانات التي تعالجها الآلات. وكما استمر نظام Linux مفتوح المصدر بجانب أنظمة احتكارية مثل Windows، برزت نماذج مفتوحة مثل Llama إلى جانب ChatGPT، مما يمهّد لانتشار أوسع للذكاء الاصطناعي. هذا التطور دفع بعض الباحثين لوصف المرحلة الحالية بأنها «لحظة لينكس» في مجال الذكاء الاصطناعي.
على مرّ العقود، ازدهرت مشاريع البرمجيات مفتوحة المصدر، مثل لينكس، بفضل مساهمات المطورين حول العالم، وهو ما أدى إلى تطويرها بسرعة وتحسين أمنها، حيث يمكن لأفضل المهندسين اختبارها وتحسينها بشكل متواصل. كما أن كونها خاضعة لإدارة أمريكية وأوروبية جعلها أحد عوامل تفوّق الغرب في مجالات عدة، مثل: أنظمة التشغيل، متصفحات الويب، قواعد البيانات، التشفير، وحتى لغات البرمجة.
تُهيمن Nvidia على صناعة رقائق الذكاء الاصطناعي بفضل وحدات معالجة الرسومات (GPUs) وبرنامجها الحصري CUDA، مما يمنحها موقعًا متقدمًا في هذا المجال. ورغم القيود الأمريكية، استخدمت الصين رقائق Nvidia في تدريب نماذج DeepSeek، لكنها تسعى حاليًا للاعتماد على رقائق Ascend من هواوي، مما قد يُقلص الحاجة إلى الرقائق الأمريكية. إذا حققت النماذج الصينية انتشارًا واسعًا بدعم حكومي، فقد يُجبر المستخدمون عالميًا على التحول إلى شرائح هواوي، مما سيُضعف شركات مثل Nvidia و TSMC ويمنح الصين نفوذًا أكبر في صناعة الرقائق. هذا السيناريو يُشبه استحواذ الصين على سوق بطاريات الليثيوم، حيث قد تؤدي استراتيجيتها إلى إعادة تشكيل سلسلة التوريد العالمية، مُهددة الهيمنة الغربية في هذا القطاع. كيفية مواجهة هذا التهديد
لمواجهة النفوذ الصيني في الذكاء الاصطناعي، تحتاج الولايات المتحدة إلى تعزيز تطوير ونشر نماذج الذكاء الاصطناعي مفتوحة المصدر، مع التركيز على دعم الجامعات والشركات والمختبرات الوطنية. رغم ارتفاع الاستثمارات في هذا المجال، لا تزال متواضعةً مقارنةً بالتمويل الإجمالي للذكاء الاصطناعي. لذا، يجب تقديم حوافز حكومية لدعم المشاريع المتوافقة مع الشرائح الغربية، وتوسيع البرامج البحثية الوطنية، والاستفادة من موارد وزارتي الطاقة والدفاع. كما ينبغي تعزيز التعاون مع مبادرات كبرى مثل Stargate، التي تخطط لاستثمار 500 مليار دولار في البنية التحتية للذكاء الاصطناعي الأمريكي خلال السنوات القادمة.
يجب على واشنطن تعزيز النظام البيئي التكنولوجي الأمريكي لدعم الذكاء الاصطناعي مفتوح المصدر عبر تطوير نظام حوسبة متكامل يتيح للمطورين الاستفادة من أفضل الشرائح الغربية، مما يعزز الطلب عليها ويحد من المنافسة الصينية. وينبغي ترسيخ تفوق التقنيات الغربية، إلى جانب قيادة الابتكار في مجال الذكاء الاصطناعي. ورغم هيمنة بنية Transformer، فإن مناهج جديدة مثل Structured State Space Models ونماذج Inception diffusion تُظهر إمكانات مستقبلية واعدة، مما يستدعي دعمها لضمان الريادة الأمريكية في هذا المجال.
ينبغي على واشنطن تجنب فرض قيود واسعة على تصدير نماذج الذكاء الاصطناعي مفتوحة المصدر، وبدلًا من ذلك، تقديم حوافز لضمان توافقها مع الشرائح الغربية. كما يجب على لجنة التجارة الفيدرالية مراعاة دور شركات التكنولوجيا الكبرى في تعزيز الريادة الأمريكية عند النظر في قضايا مكافحة الاحتكار. بالإضافة إلى ذلك، ينبغي التصدي لمحاولات الشركات الصينية خفض أسعار نماذج الذكاء الاصطناعي لإضعاف المنافسة، عبر دراسة فرض تدابير مكافحة الإغراق إذا تبيّن أن هذه الممارسات تهدف إلى إقصاء الشركات الأمريكية.
يجب على الولايات المتحدة تعزيز تنافسها مع الصين في الأسواق العالمية، حيث قد تستخدم بكين نماذج الذكاء الاصطناعي كأداة للنفوذ الاقتصادي. كما ينبغي لواشنطن التحقيق في إمكانية استخدام DeepSeek بيانات من GPT-4 دون تصريح، ودراسة تطبيق قاعدة «المنتج الأجنبي المباشر» على مخرجات الذكاء الاصطناعي، لمنع الشركات الصينية من الاستفادة من النماذج الأمريكية الرائدة، كما فعلت مع معدات تصنيع أشباه الموصلات.
ستكون هذه الإجراءات أكثر فاعلية إذا تبنتها دول أخرى. لذا، تحتاج واشنطن إلى تنسيق سياساتها مع شركائها في آسيا وأوروبا ومناطق أخرى لإنشاء كتلة دولية قادرة على إبطاء انتشار النماذج الصينية. ورغم ضخامة السوق الصينية، فإنها تظل صغيرة مقارنة بالسوق العالمية، وهو المجال الأكثر أهمية الذي يجب أن تركز عليه الولايات المتحدة لضمان هيمنة النظام البيئي الغربي للحوسبة والذكاء الاصطناعي في المستقبل.
ورغم أن القيود الأمريكية على تصدير الشرائح المتقدمة حدّت من قدرة الصين على الوصول إليها، فإن بكين ترى في الذكاء الاصطناعي مفتوح المصدر، المبني على تقنيات أقل تقدمًا، مسارًا استراتيجيًا لاكتساب حصة سوقية أكبر. ومن المرجح أن تستمر النماذج الصينية في التحسن عبر الابتكار الخوارزمي، والتحسينات الهندسية، والتصنيع المحلي للرقائق، بالإضافة إلى أساليب غير مشروعة، مثل التدريب غير المصرح به على مخرجات النماذج الأمريكية، والتحايل على ضوابط التصدير. ومع استمرار الصين في تحسين أداء نماذجها وأسعارها، فإن الحاجة إلى استراتيجية أمريكية متماسكة تصبح أكثر إلحاحًا.
يجب على واشنطن أن تتبنى استراتيجية استباقية تضمن توفير بدائل أمريكية متفوقة فور إصدار الصين لنماذجها الجديدة، ما يعزز الريادة الأمريكية في الذكاء الاصطناعي. يتطلب ذلك تحسين الإطار التنظيمي، مثل ذلك الذي وضعته إدارة بايدن لضبط انتشار التكنولوجيا، إلى جانب تسخير الموارد الحكومية لدعم النماذج المتقدمة قبل إتاحتها للعامة. تقف إدارة ترامب المقبلة أمام «لحظة لينكس» حاسمة، حيث يمكنها إما ترسيخ الهيمنة الأمريكية على الذكاء الاصطناعي المفتوح المصدر، أو المخاطرة بفقدان النفوذ لصالح الصين، التي قد تعيد توجيه السوق نحو تقنياتها الخاصة.
جاريد دانمون هو المستشار الأول للمبادرات الاستراتيجية في وحدة الابتكار الدفاعي (DIU)
نشر المقال في Foreign Affairs