الذكاء الاصطناعي.. مخاوف مطروحة ومقترحات للتنظيم الدولي
تاريخ النشر: 23rd, October 2024 GMT
مثل كثيرين، أجد نفسي غارقاً في التفكير بشأن الجدل الجاري حول الذكاء الاصطناعي، وخاصة الذكاء الاصطناعي التوليدي. فالنقاشات والمناظرات بين خبراء التكنولوجيا والفلاسفة والمؤسسات الرسمية، بل وحتى تلك التي تدور بين عامة الناس والخاصة بالذكاء الاصطناعي دائماً ما تكون مربكة ومحيرة. وتنطبق هذه الحيرة بشكل خاص على رجل الشارع العادي، أو حتى على شخص مثلي، حاصل على درجة علمية في مجال الفيزياء والرياضيات وله باع طويل في ساحة الخدمة العامة؛ إذ كانت الحوكمة والأمن القومي هما تركيزي الأساسي.
آراء متناقضة:
يعتبر البعض الذكاء الاصطناعي، أو بشكل أدق “صنع القرار الخوارزمي”، مجرد مرحلة جديدة للثورة الصناعية نابعة من الاستخدام واسع النطاق لأجهزة الكمبيوتر. فالخوارزميات ببساطة هي مجموعة من القواعد المحددة المصممة لحل مشكلة بعينها.
يزعم أنصار الذكاء الاصطناعي التوليدي أنه مجرد شكل من أشكال التقدم الطبيعي والتحويلي للتكنولوجيا والحداثة. وإن كان بعضهم يحذر من تنظيماته نظراً لتداعياتها السلبية المحتملة، وخاصة على حرية التعبير والإبداع.
ولكن هناك آخرين يعتقدون اعتقاداً راسخاً أن الذكاء الاصطناعي التوليدي يختلف اختلافاً جوهرياً عن التقنيات التكنولوجية التحويلية الأخرى؛ إذ له القدرة على استنباط وتقديم معلومات جديدة من خلال إمكاناته المعرفية التي تضاهي قدرات البشر في مختلف المجالات، وإن لم تكن قائمة على أسس التعليم المباشر. وهذا يختلف بشكل حاد عن التقنيات التكنولوجية السابقة، والتي كانت تجعل الآلات أكثر كفاءة بواسطة الخوارزميات.
نقاش حول قواعد التنظيم:
يعترف العالم اليوم بأن الذكاء الاصطناعي التوليدي باستطاعته أن يوفر إمكانات عظيمة للتقدم، ولكنه في الوقت ذاته، يأتي مع هذه الإمكانات بتحديات شديدة التعقيد، حتى إن الكثيرين يقرون صراحةً بأنهم لا يستوعبون بصورة كاملة مدى آثار وتبعات استخدام الذكاء الاصطناعي التوليدي الإيجابية والسلبية على حد سواء.
ففريق يزعم أنه وكما كان الحال مع التقنيات السابقة؛ فإن تنظيم استخدام الذكاء الاصطناعي التوليدي أمر بالغ الأهمية، وخاصة في ضوء عدم القدرة على التنبؤ بقدراته ونطاق إمكاناته في الوقت الحالي. وفريق آخر يعتقد أن هذه التقنية الجديدة ثورية وتحويلية للغاية، ولا يمكن التنبؤ بقدراتها، خاصة بعد أن تم بالفعل إطلاق العنان لهذه القدرات حتى بات تنظيمها على أرض الواقع مستحيلاً. وليس هذا فحسب؛ بل ويضيف هذا الفريق أن أية محاولة للقيام بتنظيم استخدام الذكاء الاصطناعي التوليدي قد تكون غير مجدية؛ ومن شأنها فقط أن تعطي شعوراً زائفاً بالأمن والرضا عن الذات.
آثار أخلاقية وجيوسياسية:
إن الذكاء الاصطناعي التوليدي يطرح أسئلة تقنية بالغة الصعوبة، تنطوي على عدد من القضايا والمخاوف الأخلاقية بالغة الأهمية، حتى إن الخبراء أنفسهم يختلفون حول إجابات هذه الأسئلة. ومع تطور مجال تطبيقات الذكاء الاصطناعي يتسع نطاق هذه القضايا والمخاوف. حتى إننا إذا نظرنا إلى آثار الذكاء الاصطناعي التوليدي من منظور دولي وجيوسياسي، أو من منظور الأمن القومي مثلاً؛ فإننا نقف أمام متغيرات قد ترتجف لها الأبدان.
واليوم ومع ظهور الذكاء الاصطناعي التوليدي، هل نشهد تحولاً في طريقة حكم الشعوب والدول من البشر إلى الذكاء الاصطناعي، خاصة مع ما نشهده من تزايد كبير لتأثير هذه التقنية في العلاقات الإنسانية؟ وهل التكنولوجيا ــ وخاصة الذكاء الاصطناعي التوليدي ــ في هذه الحالة ستصبح قيمة مضافة أم عبئاً جديداً؟ وهل ستتطور هذه التقنية لتصبح حليفاً أم عدواً؟ وهل يتحول النموذج التقليدي للعالم المكون من دول متقدمة وأخرى نامية إلى نموذج جديد تتميز فيه الدول ذات القدرات التوليدية للذكاء الاصطناعي عن الدول ذات القدرات التكنولوجية الأقل؟ وهل سيؤدي ذلك إلى توسيع الفجوة بين الفريقين؟
إن هذه الأسئلة كثيراً ما تثار، نظراً للإمكانات الهائلة للذكاء الاصطناعي، ولطبيعته المتغيرة، ولعدم القدرة على التنبؤ بقدراته وبالمخاطر المرتبطة بها.
يتم تمويل العديد من التطورات التكنولوجية، بما في ذلك الذكاء الاصطناعي التوليدي، من قبل المجال العسكري؛ ومن ثم، لا يمكن التقليل من شأن المخاطر المحتملة لعسكرة الذكاء الاصطناعي؛ لذا يجب أن نأخذ على محمل الجد إمكانية سباق التسلح الذي ينطوي على القيام باستخدام تطبيقات الذكاء الاصطناعي التوليدي. فكيف يُقيّم خبراء الأمن القومي الآثار الأمنية لاستخدام الذكاء الاصطناعي التوليدي عندما يكون نطاق نشاطه غير محدد مسبقاً وغير متحكم أو مسيطر عليه بالكامل من قبل مستخدميه أو حلفائه أو خصومه؟ وكيف سنفسر أخطاء الذكاء الاصطناعي المحتملة، خاصة مع الأخذ في الاعتبار لطبيعته غير القابلة للتعلم ولتناقص الدور البشري في اتخاذ القرارات العسكرية؟
من الجدير بالذكر أن الدول الأكثر تقدماً عسكرياً قد حاولت التخفيف من تبعات الاستخدام الخاطئ أو غير العقلاني للأسلحة النووية من خلال تطبيق نظام “المفتاح المزدوج”، والذي يتطلب أخذ القرار من أكثر من شخص للتصريح بإطلاق هذه الأسلحة الفتاكة.
إن الجميع اليوم على اختلافهم يشتركون في أن الذكاء الاصطناعي التوليدي موجود بالفعل وأنه ينتشر بسرعة كبيرة وعلى نطاق واسع، وهي حقيقة لا يجادل فيها أحد. ومن هنا تميل أغلبية الآراء إلى أن تنظيم استخدام الذكاء الاصطناعي قد يكون مفيداً. ولكن حتى في هذه الأغلبية، يعترف البعض بأن تحقيق التنظيم الفعّال لاستخدام الذكاء الاصطناعي، على الأقل في الوقت الحالي، قد يكون مستحيلاً من الناحية التقنية.
ضرورات التنظيم:
أتفق مع الآراء القائلة إن الذكاء الاصطناعي التوليدي وُجد ليبقى، وأؤيد الموقف القائل إن إيجاد بعض أشكال التنظيم الدولي لاستخداماته ضرورية. ففي حين أن بعض جوانب الذكاء الاصطناعي قد تكون حالياً خارج نطاق قدراتنا التنظيمية، إلا أن بذل أفضل ما بوسعنا لإيجاد بعض الأطر التنظيمية سيكون بالتأكيد أفضل من ترك الأمور فوضية أو عشوائية بالكامل. أنا لا أدعو إلى إعاقة الابتكار أو التدفق الحر للمعلومات، ولكنني أصرّح بأننا بحاجة إلى مستوى من التنظيم، حتى وإن كان غير كامل؛ لأن من شأنه التخفيف من مخاطر استخدام الذكاء الاصطناعي.
فبعض التنظيم – شريطة أن يكون قائماً على المعرفة العلمية الموثوقة – في جوهره أفضل من اللاتنظيم على الإطلاق. فعلى أقل تقدير، يمكن لهذا التنظيم أن يجعل إساءة الاستخدام أكثر صعوبة، كما أنه سيقلل من مساحة الأخطاء المحتملة، وسيضمن عدم عرقلة الابتكار وحرية التعبير بشكل غير مبرر.
لا يزال هناك الكثير مما يجب فهمه حول الذكاء الاصطناعي التوليدي بالنسبة للعامة – وربما للخبراء أيضاً – ومن الضروري سد الفجوة بين العلم والخيال العلمي فيما يتعلق بفوائد ومخاطر هذه التكنولوجيا الجديدة. وبينما تدرس الأمم المتحدة الذكاء الاصطناعي من خلال العديد من المبادرات؛ فإنني أدعو المؤسسات العلمية المرموقة إلى التعاون في إعداد وثيقة توجيهية حول الذكاء الاصطناعي التوليدي، والتركيز على ما نعرفه وما لا نعرفه عنه.
سيكون من المفيد – بناءً على المعرفة العلمية القائمة – إرساء أسس تعاونية تطوعية تستغل الذكاء الاصطناعي التوليدي على النحو الأمثل من أجل التنمية الاجتماعية والاقتصادية مع الحماية من تداعياته السلبية. وبالمثل، ينبغي وضع أسس تعاونية لتحقيق أقصى قدر من الفوائد الأمنية القومية مع الحد من الآثار الأمنية السلبية لهذه التكنولوجيا.
فمن المميزات المفيدة للذكاء الاصطناعي التوليدي الشفافية وتيسير الاتصال والاستجابة السريعة. وقد تم التعامل جزئياً مع التجاوزات السابقة التي تضمنت تقنيات منخفضة المستوى من خلال بناء جدران حماية افتراضية. إن تطوير تدابير السلامة ضد إجراءات الذكاء الاصطناعي التوليدي التي لا تفوضها السلطات العليا بشكل كامل في تطبيقات الأمن القومي الأكثر حساسية؛ من شأنه أن يخدم حتى القوى العسكرية الأكثر تقدماً، خاصةً في خضم التوترات الحالية المتزايدة في عالمنا المستقطب.
هذه الاقتراحات التمهيدية أو المبدئية لا تمثل علاجاً لتنظيم استخدام الذكاء الاصطناعي؛ ولكنها تهدف إلى تعزيز فهم قدراته، ودعم الجهود الرامية إلى تسخير إمكاناته وإدارة مخاطره. ففي ظل نظام دولي مليء بعدم المساواة والاستقطاب، يتعين علينا اغتنام كل فرصة هدفها التقدم والوقاية من التكنولوجيا التي قد تفاقم القدرات التدميرية لبعض التقنيات وترفع مخاطر الحسابات الخاطئة المتعلقة بمسائل الأمن القومي.
” يُنشر بترتيب خاص مع مركز المستقبل للأبحاث والدراسات المتقدمة، أبوظبى ”
المصدر: جريدة الوطن
كلمات دلالية: استخدام الذکاء الاصطناعی التولیدی الأمن القومی من خلال
إقرأ أيضاً:
كيف هز ديب سيك الصيني عروش الذكاء الاصطناعي بـ5.6 ملايين دولار فقط؟
وتناولت حلقة (2025/2/5) من برنامج "حياة ذكية"، الذي يبث على منصة "الجزيرة 360″، التطور المفاجئ الذي هز أوساط التكنولوجيا العالمية بنجاح شركة صينية ناشئة في إحداث تحول جذري في مشهد الذكاء الاصطناعي العالمي باستثمار متواضع لم يتجاوز 5.6 ملايين دولار.
هذا الإنجاز الذي حققته شركة "ديب سيك" لم يؤثر فقط على القيمة السوقية لعملاق الرقائق "نفياديا" (Nvidia)، بل أثار مخاوف جدية في الغرب حول مستقبل الهيمنة التكنولوجية.
وأوضحت الحلقة كيف نجحت الشركة في تحقيق الابتكار في ظل الموارد المحدودة، حيث قاد المهندس ليان غوينغ فريقا من الباحثين في مدينة هانغتشو الصينية لإنجاز مشروع بدا مستحيلاً في البداية.
واستطاع الفريق جمع 10 آلاف رقاقة من نوع "إيه 100" التابعة لشركة نفياديا قبل فرض القيود الأميركية على تصدير الرقائق المتطورة إلى الصين. وبهذه الموارد المحدودة، نجح الفريق في تطوير نموذج ينافس عمالقة مثل شات "جي بي تي" (ChatGPT) و"جيميني" الخاص بغوغل (Google Gemini).
ابتكارات رئيسية
وتمكن الفريق من تحقيق ثلاثة ابتكارات رئيسية تمثلت في نظام "نيروبايب" (NeuroPipe) الذكي، الذي يعمل كقائد أوركسترا يدير العمليات بكفاءة عالية. ومن بين 132 وحدة معالجة، خصص الفريق 20 وحدة فقط لتنظيم الاتصالات بين الوحدات الأخرى، محققا انسيابية أكبر في التشغيل، وهذا النهج يشبه تخصيص فريق صغير لتنسيق العمل بين المهندسين بدلاً من التواصل العشوائي.
إعلانوالابتكار الثاني تمثل في تقنية الضغط الذكي، وهي طريقة فعالة لتقليل حجم البيانات دون المساس بالجودة، فبدلاً من استخدام 32 بتا لتمثيل كل رقم يستخدم النظام 8 بتات فقط مع الحفاظ على الدقة، مما يؤدي إلى توفير كبير في استهلاك الطاقة والموارد.
ويتمثل الابتكار الثالث في نظام مزيج الخبراء "إم أو إي" (MoE)، الذي يعتبر قفزة نوعية في كفاءة استخدام الموارد، فمن أصل 67.1 مليار معامل، يستخدم النموذج 3.7 مليارات فقط في كل عملية، بحيي يختار المعاملات المناسبة لكل مهمة بدقة متناهية.
ولمقارنة الأداء مع المنافسين، أوضح مقدم البرنامج أن نقاط القوة لدى "ديب سيك" تتمثل في التفوق في مجال البرمجة على "جي بي تي-4" (GPT-4)، وسرعة الاستجابة العالية في إنتاج المحتوى، والقدرة المتميزة على تلخيص المعلومات المعقدة، إضافة إلى تكلفة التشغيل المنخفضة جدا (2 دولار مقابل 60 دولارا لمعالجة مليون رمز).
وأشار المقدم إلى نقاط الضعف أيضا التي تتمثل في الدقة المنخفضة في المعلومات الإخبارية (17% مقارنة بـ 74% لنماذج "أوبن إيه آي" OpenAI)، والعمق التحليلي الأقل مقارنة بالنماذج الغربية.
ولفتت الحلقة إلى أن نجاح "ديب سيك" تحدي إستراتيجي للهيمنة الغربية في مجال الذكاء الاصطناعي لعدة أسباب تتمثل في: إثبات إمكانية تطوير نماذج متقدمة بموارد محدودة، وتقديم بديل منخفض التكلفة يمكن أن يغير ديناميكيات السوق، إضافة إلى تحدي الاعتقاد السائد بأن تطوير الذكاء الاصطناعي يتطلب موارد ضخمة.
ورغم ما يثار الآن حول نجاح ديب سيك الأولي، فإن البرنامج أشار إلى تحديات مستقبلية قد تواجهه تتمثل في الحاجة إلى تحسين دقة المعلومات، والتعامل مع القيود الأميركية على التكنولوجيا، والمنافسة المتزايدة من الشركات الغربية.
5/2/2025