لجريدة عمان:
2024-07-01@16:46:00 GMT

السباق العسكري في عصر الذكاء الاصطناعي

تاريخ النشر: 30th, September 2023 GMT

يتبادر إلى أذهاننا المفهوم السائد أن العلم يقود البشرية إلى الازدهار، ويسهم في تطوير حضارتها، ويجعل البعض هذا المفهوم مسلّمة لا تزرع الشك بوجود أي جانب مظلم للطفرات العلمية غير المحكومة بقواعد الأخلاق؛ كون التطور العلمي يسهم في حل مشكلات كثيرة في حياتنا، ويمنحنا الأمل في حل ما صَعُبَ حله في ماضينا، إلا أن هذا المفهوم لم يعد مقبولا عند البعض بشكل مطلق؛ إذ يرى البعض أن العلم بطفراته المتنامية والسريعة -في بعض حالاته- يتحرك بتهور دون قيود وقواعد أخلاقية واضحة؛ فنجد العلم يتحرك وفق مصالح تجارية وسياسية تتجاوز في كثير من حالاتها المعايير الأخلاقية لصالح الأرباح المالية والهيمنة السياسية؛ فتحدّ من استقلالية العلم والعلماء وصرامة النظام الأخلاقي في المنهج العلمي؛ فبمجرد أن يفقد العلماء سلطتهم الأخلاقية فإنَّهم لا يملكون قرارتهم العلمية الأخلاقية التي يمكن لها أن توجّه العلم لمشروعاته الصميمة التي ترعى مصلحة الإنسان وقيمه؛ فيفقد العلم مفهومه السائد، ويكون أداة دمار شاملة كما سنرى في هذا المقال الذي سيتناول استعمالات الذكاء الاصطناعي في القطاعات العسكرية بشتّى أنواعها، وآثاره السلبية التي ينبغي الالتفات إليها وإدراك مخاطرها الوجودية قبل فوات الأوان.

سبق التطرق إلى بعض مخاطر الذكاء الاصطناعي -في مقال نشرته الأسبوع المنصرم- التي أصبحت واقعًا مقلقًا، وهذا النوع من المخاطر الذي تناولته الأسبوع الماضي كان فيما يخص تهديدات الأنظمة الذكية للخصوصية الفردية والأسس الأخلاقية للمجتمعات بعد انتشار تطبيقات الذكاء الاصطناعي التي تعمل على تزييف المقاطع المرئية والصوتية، ونتائجها السلبية على الأفراد والمجتمعات، وما يمكن أن تسببه من آثار نفسية ومجتمعية سلبية، أما المخاطر الحالية والمتصاعدة بسبب وجود نماذج الذكاء الاصطناعي في القطاع العسكري وتوابعه؛ فهي تهديدات تتجاوز العامل النفسي والاضطراب السياسي والمجتمعي؛ لتمتد في تهديد حياة الإنسان ووجوده، ويمكن تقسيم هذه المخاطر إلى 3 مجموعات؛ فهناك تهديدات تتمثل في تطوير أسلحة حربية مباشرة -مثل الأسلحة النووية والصورايخ والدبابات والطائرات بأنواعها- تعمل بواسطة الذكاء الاصطناعي، وتهديدات تتعلق بتمكين الذكاء الاصطناعي في صناعة أسلحة بيولوجية -تُستعمل سلاحا في حالة الحرب المباشرة أو غير المباشرة- فتّاكة، وتهديدات تتعلق بالأمن السيبراني وأمن المعلومات، وما يترتب عليه من تأثيرات اقتصادية وسياسية.

بدأت مؤخرا تخرج للعلن العديد من المشروعات العسكرية التي تتبنى صناعة أسلحة حربية تعمل وفق خوارزميات الذكاء الاصطناعي -وما خفي أكثر مما أعلن عنه-، ودخل بعض هذه الأسلحة حيّز التطبيق العملي رغم أن وجود أنظمة الذكاء الاصطناعي في الأسلحة ليس حدثًا جديدا يتزامن مع صعود الذكاء الاصطناعي وانتشاره، بل سبق للولايات المتحدة الأميركية تطوير صواريخ حربية موجهة بواسطة الذكاء الاصطناعي، واستعملتها في هجومها على العراق فترة حرب الخليج الثانية -عملية عاصفة الصحراء- في بداية تسعينات القرن العشرين كما ذكر «ستيوارت راسِل» في كتابه «ذكاء اصطناعي متوافق مع البشر»؛ فحينها -مع بدء استعمال الذكاء الاصطناعي داخل المؤسسات العسكرية- لم تكن تطبيقات الذكاء الاصطناعي محصورة داخل مراكز الأبحاث سواء السرية أو العلنية، بل كانت المؤسسات العسكرية والأمنية -في الدول الكبرى- تسعى للبحث عن سبل التطبيق لهذه الأنظمة في مجالاتها العسكرية. نأتي إلى حاضرنا -الذي لم يعد من السهل إخفاء كل التطويرات العسكرية في ظل عالم تتسارع فيه وتيرة انتقال المعلومة- الذي يشهد تطويرات عسكرية مخيفة تعمل بواسطة الذكاء الاصطناعي مثل الطائرات بدون طيّار «الدرون» التي يمكن لبعضها أن يحلّق لمسافات وساعات طويلة، ويحمل صواريخ، ويشنّ هجوما على أهداف أرضية، وتعمل خوارزمية الذكاء الاصطناعي على توجيه الطائرة وتحديد الأهداف المطلوبة عبر تقنيات تحليل الصور أثناء المسح الجوي المباشر أو عبر البيانات التي يتلقاها من الأقمار الصناعية، وكذلك عبر القدرة العالية في تمييز الأهداف وانتقائها وفق معايير محددة مسبقا أثناء مرحلة التدرب على البيانات. تأتي كذلك الصورايخ الموجّهة -وأخطرها القادرة على حمل الروؤس النووية- بواسطة الذكاء الاصطناعي الأكثر تطورا من النسخ السابقة التي استعملت في نهايات القرن الماضي. أُعلنَ كذلك قبل فترة عن اقتراب تدشين دبابات ذاتية القيادة والهجوم تعمل عبر الذكاء الاصطناعي، وجنود آليين يعتمدون على أنظمة الذكاء الاصطناعي، ويعملون محاربين بديلا عن الجنود البشر؛ لتقليل الخسائر البشرية للجيوش التقليدية (البشرية) التي تتكبدها المؤسسات العسكرية، وكذلك وجود نوع آخر من الجنود الذي يُمثّل التوأمة بين الإنسان والذكاء الاصطناعي؛ حيث يكون الجندي -البشر- مزودا بأنظمة ذكية لمضاعفة قدراته في التحليل والمناورة العسكرية يشمل التحفيز الذهني والنفسي عبر ربط الدماغ بأنظمة ذكية توفر له هذه القدرات، وسبق الحديث في مقال سابق عن مشروع توأمة الإنسان والذكاء الاصطناعي. يشكّل هذا النوع من الأسلحة مخاطر تتجاوز حدود عملها العسكري؛ إذ من الممكن أن تتطور خوارزمياتها لتتجاوز المعايير الأخلاقية؛ فتكون الأهداف المدنية بجانب الأهداف العسكرية أهدافا أيضا لهذه الأسلحة الذكية التي تعمل على الإبادة البشرية -خصوصا الأنواع الفتّاكة مثل الأسلحة النووية- دون أيّ هوادة وخيارات بشرية تصل بأيّ مبادئ أخلاقية.

لا تقتصر الوسائل العسكرية والأسلحة في جانبها الآلي والناري بل تشمل الأسلحة البيولوجية التي استعملت من قبل بعض الجيوش والدول في حروب سابقة، وبوجود الذكاء الاصطناعي وقدراته الفائقة بوجود أنظمة حاسوبية ورقمية متقدمة مثل الحوسبة الكمومية التي تضاعف من قدرات الذكاء الاصطناعي التحليلية فإن القدرة والسرعة على ابتكار أسلحة بيولوجية خطيرة ستكون عالية مثل استحداث أوبئة فتّاكة سريعة الانتشار. ومن الوسائل العسكرية الأخرى التي يمكن للذكاء الاصطناعي أن يعمل فيها أنظمة الأمن السيبراني التي يمكن أن تعمل وفق استراتيجية الهجوم والدفاع معا؛ فيستطيع الذكاء الاصطناعي شنّ هجوم سيبراني على أنظمة حاسوبية ورقمية مهمة -حتى مع وجود أنظمة تشفير قوية-؛ مما يؤدي إلى تعطيل أنظمة عسكرية حساسة، وأنظمة مالية وبنكية تشلّ اقتصاد الدول ونظامها المالي، وفي المقابل يمكن استعمال الذكاء الاصطناعي في توفير الحماية السيبرانية العالية عبر أنظمة البحث المستمرة عن أي ثغرات مخفية، ورفع كفاءات التشفير وتحديثه المستمر. يحمل المستقبل بشأن الصناعات العسكرية مفاجآته المخيفة بتضاعف شراسة الأسلحة، ومع بلوغ الذكاء الاصطناعي مرحلته العامة «الخارقة»، وتوفّر الأنظمة الحاسوبية الحاضنة مثل الحوسبة الكوانتمية؛ فإن هذه الطفرات الرقمية إن لم تجد لها حوكمة صارمة؛ ستقود البشرية إلى دمار غير معهود، وهذا ما حذّر منه علماء وخبراء في مجال الذكاء الاصطناعي والأمين العام للأمم المتحدة قبل عدة أشهر.

د. معمر بن علي التوبي أكاديمي وباحث عُماني

المصدر: لجريدة عمان

كلمات دلالية: بواسطة الذکاء الاصطناعی الذکاء الاصطناعی فی التی یمکن

إقرأ أيضاً:

باحثون بجامعة أكسفورد يقترحون منهجية جديدة لاكتشاف هلوسة الذكاء الاصطناعي

إحدى المشكلات المزمنة التي تعاني منها أنظمة الذكاء الاصطناعي التوليدي الحالية، مثل "شات جي بي تي"، هي أنها غالبا تؤكد بثقة على بعض المعلومات الخاطئة، ويطلق الباحثون والخبراء على هذا السلوك اسم "الهلوسة"، وهو يمثل عائقا أساسيا أمام فعالية تلك الأنظمة.

يحاول الباحثون من عدة جامعات ومؤسسات بحثية إيجاد حلول لتلك المشكلة، وفي ورقة بحثية جديدة، نُشرت في دورية "نيتشر" العلمية، يصف الباحثون، في قسم علوم الحاسب بجامعة أكسفورد، أسلوبا جديدا لاكتشاف متى يُحتمل أن تهلوس أنظمة الذكاء الاصطناعي.

تتمكن المنهجية المذكورة في الورقة البحثية من التفرقة بين الإجابات الصحيحة والخاطئة، التي يولدها نموذج الذكاء الاصطناعي بنسبة 79% تقريبا من الوقت، وهي نسبة أعلى بنحو 10 نقاط مئوية من المنهجيات الرائدة الأخرى المتاحة حاليا.

ورغم أن هذا الأسلوب يعالج سببا واحدا فقط من الأسباب العديدة لهلوسة نماذج الذكاء الاصطناعي، ويتطلب قوة حوسبة أكبر بعشر مرات تقريبا من المحادثة العادية مع الروبوت، فإن تلك النتائج قد تمهد الطريق لأنظمة ذكاء اصطناعي موثوقة أكثر في المستقبل القريب، كما يشير تقرير في مجلة تايم.

هلوسة الذكاء الاصطناعي

أصبح مصطلح "الهلوسة" شائعا في مجال الذكاء الاصطناعي، لكنه يعتبر أيضا مصطلحا مثيرا للجدل، فمن ناحية، يشير المصطلح إلى أن لدى النماذج نوعا ما من الخبرة الذاتية للعالم، وهو ما يتفق معظم علماء الحاسب على أنه ليس موجودا.

ومن ناحية أخرى، يشير المصطلح إلى أن تلك الهلوسة هي مشكلة قابلة للحل، وليست مشكلة جوهرية، وربما غير قابلة للحل في النماذج اللغوية الكبيرة، ويظهر هنا اختلاف بين معسكرات الباحثين في مجال الذكاء الاصطناعي حول إجابة هذا السؤال، لكن الأهم من كل ذلك هو أن المصطلح غير دقيق، فهو يصف عدة فئات متباينة من الأخطاء التي يقع بها نموذج الذكاء الاصطناعي، كما يشير التقرير.

ولذا قرر فريق جامعة أكسفورد التركيز على فئة واحدة بعينها من الهلوسة، أطلقوا عليها اسم "التَخْريف" (confabulations)، وهي عندما يصدر نموذج ذكاء اصطناعي إجابات خاطئة غير متوافقة على سؤال يتعلق بالحقائق، على عكس الإجابة الخاطئة المتوافقة نفسها التي تنشأ غالبا من أسباب أخرى مثل مشكلات في بيانات تدريب النموذج، أو عندما يكذب النموذج سعيا وراء الحصول على مكسب ما، أو عندما يعاني من خلل هيكلي في منطقه أو أسلوب استنتاجه.

"الأنتروبيا الدلالية" هو مقياس لمدى تشابه أو اختلاف معاني كل إجابة (شترستوك) أسلوب بسيط

الأسلوب الذي استخدمه الفريق البحثي لاكتشاف احتمالية أن يخرف النموذج بسيط نسبيا، في البداية، يطلب الباحثون من روبوت المحادثة أن يصدر مجموعة من الإجابات، تكون عادة ما بين 5 إلى 10 إجابات، على السؤال نفسه، ثم يستخدمون نموذجا لغويا مختلفا لتصنيف تلك الإجابات بناء على معناها.

على سبيل المثال، إجابات "باريس هي عاصمة فرنسا" و"عاصمة فرنسا هي باريس" سيصنفهما النموذج في المجموعة نفسها لأنهما يحملان المعنى ذاته، بالرغم من اختلاف صياغة الجملتين. أما إجابة مثل "عاصمة فرنسا هي روما" فيصنفها النموذج في مجموعة مختلفة.

ثم يحسب الباحثون بعد ذلك رقما أطلقوا عليه اسم "الأنتروبيا الدلالية" (semantic entropy)، وهو مقياس لمدى تشابه أو اختلاف معاني كل إجابة، فإذا كانت كل إجابات النموذج تحمل معاني مختلفة، تصبح قيمة الأنتروبيا الدلالية مرتفعة، مما يشير إلى أن النموذج مشوش ويتعرض لسلوك "التخريف".

أما إذا كانت كل إجابات النموذج تحمل معاني متطابقة أو متشابهة، فستكون قيمة الأنتروبيا الدلالية منخفضة، مما يشير إلى أن النموذج يقدم إجابة متسقة، ولهذا لا يُحتمل أن يكون النموذج معرضا لسلوك التخريف، قد تظل الإجابة خاطئة باستمرار، لكن هذا يعتبر نوعا مختلفا من الهلوسة، مثلا قد تكون بسبب مشكلات في بيانات تدريب النموذج نفسها.

ذكر الباحثون أن أسلوب رصد الأنتروبيا الدلالية تفوق على العديد من الأساليب الأخرى لاكتشاف هلوسة نماذج الذكاء الاصطناعي، وشملت تلك الأساليب "الأنتروبيا البدائية"، التي تكتشف فقط اختلاف صياغة الجملة وليس معناها، وأسلوب آخر يطلب من النموذج نفسه تقييم مدى صحة إجاباته، بجانب أسلوب آخر يُضبط فيه نموذج الذكاء الاصطناعي على الإجابات الصحيحة لأسئلة محددة.

هل يصلح للتطبيق العملي؟

يطرح الفريق البحثي بعض الأفكار حول كيف يمكن لمنهجية كشف "الأنتروبيا الدلالية" أن تبدأ في الحد من هلوسة روبوتات المحادثة الرائدة في المجال حاليا. يذكر أحد مؤلفي الورقة البحثية أنها من الممكن نظريا أن تسمح لشركة أوبن إيه آي بإضافة خيار إلى روبوت "شات جي بي تي"، حين يضغط المستخدم على إجابة ما، سيحصل على درجة من التأكد تمنحه شعورا أكبر بالثقة حول دقة تلك الإجابة.

كما يوضح أن هذا الأسلوب قد يُدمج أيضا ضمن الأدوات الأخرى التي تعتمد على نماذج الذكاء الاصطناعي في أماكن العمل مرتفعة المخاطر، حيث ترغب الشركة أو المؤسسة في مبادلة السرعة والتكلفة بدقة الإجابة.

في حين أن الفريق البحثي متفائل بشأن قدرة أسلوبهم على تحسين موثوقية أنظمة الذكاء الاصطناعي، إلا أن بعض الخبراء يحذرون من المبالغة في تقدير تأثيره الفوري، وفقا لتقرير تايم.

ويشير بعض الخبراء إلى عدم وضوح إمكانية دمج هذا الأسلوب في تطبيقات حقيقية مثل روبوتات المحادثة المنتشرة حاليا، كما يشير التقرير، ويوضحون أنه كلما أصبحت نماذج الذكاء الاصطناعي أكثر قدرة، سيحاول الناس استخدامها في مهام أكثر صعوبة ربما تزداد فيها احتمالية الفشل.

مقالات مشابهة

  • محمد مغربي يكتب: ثورة اصطناعية لذوي الهمم (2)
  • في ذكرى ميلاده.. كيف وصف الذكاء الاصطناعي وحيد حامد؟
  • أفضل 5 بدائل شات جي بي تي المتاحة عبر الإنترنت
  • رئيس جامعة مصر للمعلوماتية: الدولة تستخدم الذكاء الاصطناعي لتوثيق الآثار
  • ضرورة محاربة أمية الذكاء الاصطناعي
  • خبراء «الذكاء الاصطناعي» يزورون مجمع حمدان الرياضي
  • هل أثر الذكاء الاصطناعي على معدلات التوظيف في الولايات المتحدة؟
  • اتحاد إذاعات الدول العربية ينظم ندوات حول صناعة المحتوى والميديا عن طريق الذكاء الاصطناعي
  • باحثون بجامعة أكسفورد يقترحون منهجية جديدة لاكتشاف هلوسة الذكاء الاصطناعي
  • المرأة اللطيفة.. ماذا تخبرنا أصوات تطبيقات الذكاء الاصطناعي ؟