السباق العسكري في عصر الذكاء الاصطناعي
تاريخ النشر: 30th, September 2023 GMT
يتبادر إلى أذهاننا المفهوم السائد أن العلم يقود البشرية إلى الازدهار، ويسهم في تطوير حضارتها، ويجعل البعض هذا المفهوم مسلّمة لا تزرع الشك بوجود أي جانب مظلم للطفرات العلمية غير المحكومة بقواعد الأخلاق؛ كون التطور العلمي يسهم في حل مشكلات كثيرة في حياتنا، ويمنحنا الأمل في حل ما صَعُبَ حله في ماضينا، إلا أن هذا المفهوم لم يعد مقبولا عند البعض بشكل مطلق؛ إذ يرى البعض أن العلم بطفراته المتنامية والسريعة -في بعض حالاته- يتحرك بتهور دون قيود وقواعد أخلاقية واضحة؛ فنجد العلم يتحرك وفق مصالح تجارية وسياسية تتجاوز في كثير من حالاتها المعايير الأخلاقية لصالح الأرباح المالية والهيمنة السياسية؛ فتحدّ من استقلالية العلم والعلماء وصرامة النظام الأخلاقي في المنهج العلمي؛ فبمجرد أن يفقد العلماء سلطتهم الأخلاقية فإنَّهم لا يملكون قرارتهم العلمية الأخلاقية التي يمكن لها أن توجّه العلم لمشروعاته الصميمة التي ترعى مصلحة الإنسان وقيمه؛ فيفقد العلم مفهومه السائد، ويكون أداة دمار شاملة كما سنرى في هذا المقال الذي سيتناول استعمالات الذكاء الاصطناعي في القطاعات العسكرية بشتّى أنواعها، وآثاره السلبية التي ينبغي الالتفات إليها وإدراك مخاطرها الوجودية قبل فوات الأوان.
سبق التطرق إلى بعض مخاطر الذكاء الاصطناعي -في مقال نشرته الأسبوع المنصرم- التي أصبحت واقعًا مقلقًا، وهذا النوع من المخاطر الذي تناولته الأسبوع الماضي كان فيما يخص تهديدات الأنظمة الذكية للخصوصية الفردية والأسس الأخلاقية للمجتمعات بعد انتشار تطبيقات الذكاء الاصطناعي التي تعمل على تزييف المقاطع المرئية والصوتية، ونتائجها السلبية على الأفراد والمجتمعات، وما يمكن أن تسببه من آثار نفسية ومجتمعية سلبية، أما المخاطر الحالية والمتصاعدة بسبب وجود نماذج الذكاء الاصطناعي في القطاع العسكري وتوابعه؛ فهي تهديدات تتجاوز العامل النفسي والاضطراب السياسي والمجتمعي؛ لتمتد في تهديد حياة الإنسان ووجوده، ويمكن تقسيم هذه المخاطر إلى 3 مجموعات؛ فهناك تهديدات تتمثل في تطوير أسلحة حربية مباشرة -مثل الأسلحة النووية والصورايخ والدبابات والطائرات بأنواعها- تعمل بواسطة الذكاء الاصطناعي، وتهديدات تتعلق بتمكين الذكاء الاصطناعي في صناعة أسلحة بيولوجية -تُستعمل سلاحا في حالة الحرب المباشرة أو غير المباشرة- فتّاكة، وتهديدات تتعلق بالأمن السيبراني وأمن المعلومات، وما يترتب عليه من تأثيرات اقتصادية وسياسية.
بدأت مؤخرا تخرج للعلن العديد من المشروعات العسكرية التي تتبنى صناعة أسلحة حربية تعمل وفق خوارزميات الذكاء الاصطناعي -وما خفي أكثر مما أعلن عنه-، ودخل بعض هذه الأسلحة حيّز التطبيق العملي رغم أن وجود أنظمة الذكاء الاصطناعي في الأسلحة ليس حدثًا جديدا يتزامن مع صعود الذكاء الاصطناعي وانتشاره، بل سبق للولايات المتحدة الأميركية تطوير صواريخ حربية موجهة بواسطة الذكاء الاصطناعي، واستعملتها في هجومها على العراق فترة حرب الخليج الثانية -عملية عاصفة الصحراء- في بداية تسعينات القرن العشرين كما ذكر «ستيوارت راسِل» في كتابه «ذكاء اصطناعي متوافق مع البشر»؛ فحينها -مع بدء استعمال الذكاء الاصطناعي داخل المؤسسات العسكرية- لم تكن تطبيقات الذكاء الاصطناعي محصورة داخل مراكز الأبحاث سواء السرية أو العلنية، بل كانت المؤسسات العسكرية والأمنية -في الدول الكبرى- تسعى للبحث عن سبل التطبيق لهذه الأنظمة في مجالاتها العسكرية. نأتي إلى حاضرنا -الذي لم يعد من السهل إخفاء كل التطويرات العسكرية في ظل عالم تتسارع فيه وتيرة انتقال المعلومة- الذي يشهد تطويرات عسكرية مخيفة تعمل بواسطة الذكاء الاصطناعي مثل الطائرات بدون طيّار «الدرون» التي يمكن لبعضها أن يحلّق لمسافات وساعات طويلة، ويحمل صواريخ، ويشنّ هجوما على أهداف أرضية، وتعمل خوارزمية الذكاء الاصطناعي على توجيه الطائرة وتحديد الأهداف المطلوبة عبر تقنيات تحليل الصور أثناء المسح الجوي المباشر أو عبر البيانات التي يتلقاها من الأقمار الصناعية، وكذلك عبر القدرة العالية في تمييز الأهداف وانتقائها وفق معايير محددة مسبقا أثناء مرحلة التدرب على البيانات. تأتي كذلك الصورايخ الموجّهة -وأخطرها القادرة على حمل الروؤس النووية- بواسطة الذكاء الاصطناعي الأكثر تطورا من النسخ السابقة التي استعملت في نهايات القرن الماضي. أُعلنَ كذلك قبل فترة عن اقتراب تدشين دبابات ذاتية القيادة والهجوم تعمل عبر الذكاء الاصطناعي، وجنود آليين يعتمدون على أنظمة الذكاء الاصطناعي، ويعملون محاربين بديلا عن الجنود البشر؛ لتقليل الخسائر البشرية للجيوش التقليدية (البشرية) التي تتكبدها المؤسسات العسكرية، وكذلك وجود نوع آخر من الجنود الذي يُمثّل التوأمة بين الإنسان والذكاء الاصطناعي؛ حيث يكون الجندي -البشر- مزودا بأنظمة ذكية لمضاعفة قدراته في التحليل والمناورة العسكرية يشمل التحفيز الذهني والنفسي عبر ربط الدماغ بأنظمة ذكية توفر له هذه القدرات، وسبق الحديث في مقال سابق عن مشروع توأمة الإنسان والذكاء الاصطناعي. يشكّل هذا النوع من الأسلحة مخاطر تتجاوز حدود عملها العسكري؛ إذ من الممكن أن تتطور خوارزمياتها لتتجاوز المعايير الأخلاقية؛ فتكون الأهداف المدنية بجانب الأهداف العسكرية أهدافا أيضا لهذه الأسلحة الذكية التي تعمل على الإبادة البشرية -خصوصا الأنواع الفتّاكة مثل الأسلحة النووية- دون أيّ هوادة وخيارات بشرية تصل بأيّ مبادئ أخلاقية.
لا تقتصر الوسائل العسكرية والأسلحة في جانبها الآلي والناري بل تشمل الأسلحة البيولوجية التي استعملت من قبل بعض الجيوش والدول في حروب سابقة، وبوجود الذكاء الاصطناعي وقدراته الفائقة بوجود أنظمة حاسوبية ورقمية متقدمة مثل الحوسبة الكمومية التي تضاعف من قدرات الذكاء الاصطناعي التحليلية فإن القدرة والسرعة على ابتكار أسلحة بيولوجية خطيرة ستكون عالية مثل استحداث أوبئة فتّاكة سريعة الانتشار. ومن الوسائل العسكرية الأخرى التي يمكن للذكاء الاصطناعي أن يعمل فيها أنظمة الأمن السيبراني التي يمكن أن تعمل وفق استراتيجية الهجوم والدفاع معا؛ فيستطيع الذكاء الاصطناعي شنّ هجوم سيبراني على أنظمة حاسوبية ورقمية مهمة -حتى مع وجود أنظمة تشفير قوية-؛ مما يؤدي إلى تعطيل أنظمة عسكرية حساسة، وأنظمة مالية وبنكية تشلّ اقتصاد الدول ونظامها المالي، وفي المقابل يمكن استعمال الذكاء الاصطناعي في توفير الحماية السيبرانية العالية عبر أنظمة البحث المستمرة عن أي ثغرات مخفية، ورفع كفاءات التشفير وتحديثه المستمر. يحمل المستقبل بشأن الصناعات العسكرية مفاجآته المخيفة بتضاعف شراسة الأسلحة، ومع بلوغ الذكاء الاصطناعي مرحلته العامة «الخارقة»، وتوفّر الأنظمة الحاسوبية الحاضنة مثل الحوسبة الكوانتمية؛ فإن هذه الطفرات الرقمية إن لم تجد لها حوكمة صارمة؛ ستقود البشرية إلى دمار غير معهود، وهذا ما حذّر منه علماء وخبراء في مجال الذكاء الاصطناعي والأمين العام للأمم المتحدة قبل عدة أشهر.
د. معمر بن علي التوبي أكاديمي وباحث عُماني
المصدر: لجريدة عمان
كلمات دلالية: بواسطة الذکاء الاصطناعی الذکاء الاصطناعی فی التی یمکن
إقرأ أيضاً:
"التعليم" تحظر استخدام الذكاء الاصطناعي التوليدي دون إشراف
حظرت وزارة التعليم استخدام أدوات الذكاء الاصطناعي التوليدي للطلبة الذين تقل أعمارهم عن 13 عامًا بشكل قطعي، مؤكدة على ضرورة عدم السماح لهم باستخدام هذه الأدوات إلا تحت إشراف مباشر.
كما شددت الوزارة على أن الطلبة الذين تقل أعمارهم عن 18 عامًا لا يمكنهم استخدام أدوات الذكاء الاصطناعي التوليدي إلا بعد الحصول على موافقة واضحة من أولياء أمورهم.
أخبار متعلقة وصول الطائرة الإغاثية السعودية الـ 13 لمساعدة الشعب السوريمغادرة الطائرة الإغاثية السعودية الـ 13 لمساعدة الشعب السوري .article-img-ratio{ display:block;padding-bottom: 67%;position:relative; overflow: hidden;height:0px; } .article-img-ratio img{ object-fit: contain; object-position: center; position: absolute; height: 100% !important;padding:0px; margin: auto; width: 100%; } "التعليم" تحظر استخدام الذكاء الاصطناعي التوليدي دون إشراف أو موافقةحماية من المخاطريأتي هذا الحظر ضمن إطار دليل شامل أصدرته الوزارة، يهدف إلى توضيح كيفية الاستفادة من الذكاء الاصطناعي التوليدي في التعليم بطريقة أخلاقية وآمنة، مع توفير مجموعة من الإرشادات والتوجيهات التي تضمن تحقيق أقصى استفادة من هذه التقنيات المتطورة دون الإضرار بالقيم التعليمية أو الأخلاقية.
وأكدت وزارة التعليم أن حظر استخدام أدوات الذكاء الاصطناعي التوليدي دون إشراف مسبق أو إذن واضح من أولياء الأمور يأتي لحماية الطلبة من المخاطر العديدة التي قد تنتج عن الاستخدام العشوائي لهذه التقنيات.
وتشمل هذه المخاطر انتهاك الخصوصية، مخالفة حقوق الملكية الفكرية، تقديم مخرجات غير دقيقة أو مضللة، والاعتماد المفرط على الذكاء الاصطناعي على حساب تطوير المهارات الشخصية والإبداعية للطلبة.
وشددت الوزارة على ضرورة التعامل بحذر مع أدوات الذكاء الاصطناعي التوليدي والتأكد من استخدامها بطريقة مسؤولة تخدم الأهداف التعليمية.
.article-img-ratio{ display:block;padding-bottom: 67%;position:relative; overflow: hidden;height:0px; } .article-img-ratio img{ object-fit: contain; object-position: center; position: absolute; height: 100% !important;padding:0px; margin: auto; width: 100%; } "التعليم" تحظر استخدام الذكاء الاصطناعي التوليدي دون إشراف أو موافقةاستخدام مسؤولتضمنت الإرشادات الموجهة للطلبة في الدليل مجموعة من النقاط المفصلة التي تهدف إلى توجيههم نحو الاستخدام الآمن والمسؤول لأدوات الذكاء الاصطناعي التوليدي.
ويُلزم الطلبة بتوثيق المخرجات التي يتم إنتاجها باستخدام الذكاء الاصطناعي، مع الإشارة بوضوح إلى مصدر هذه المخرجات وفقًا لأنظمة التوثيق الأكاديمية المعتمدة.
كما شدد الدليل على أهمية احترام حقوق الملكية الفكرية، حيث يحظر على الطلبة استخدام هذه الأدوات لإنتاج محتوى ينتهك حقوق الطبع والنشر أو حقوق الآخرين.
وأكد الدليل على ضرورة مراجعة مخرجات الذكاء الاصطناعي بدقة قبل استخدامها في الأنشطة الدراسية أو الواجبات، حيث قد تحتوي هذه المخرجات على معلومات غير دقيقة أو غير مناسبة.
وحثت الوزارة الطلبة على استخدام أدوات الذكاء الاصطناعي كأداة مساعدة تعزز من عملية التعلم، وليس كبديل عن التفكير النقدي والإبداع الشخصي.
.article-img-ratio{ display:block;padding-bottom: 67%;position:relative; overflow: hidden;height:0px; } .article-img-ratio img{ object-fit: contain; object-position: center; position: absolute; height: 100% !important;padding:0px; margin: auto; width: 100%; } "التعليم" تحظر استخدام الذكاء الاصطناعي التوليدي دون إشراف أو موافقةأداة تعليمية داعمةوجهت وزارة التعليم في الدليل المعلمين إلى أهمية لعب دور إشرافي في عملية استخدام الطلبة لأدوات الذكاء الاصطناعي التوليدي.
تضمنت الإرشادات ضرورة التأكد من أن الطلبة يفهمون حدود استخدام هذه الأدوات، وأنهم يستخدمونها بطريقة أخلاقية تدعم العملية التعليمية.
كما دعت الوزارة المعلمين إلى مراجعة وتدقيق المخرجات التي يتم إنتاجها باستخدام الذكاء الاصطناعي لضمان جودتها ودقتها، بما يتماشى مع الأهداف التعليمية التي تسعى الوزارة إلى تحقيقها.
وحث الدليل المعلمين على استخدام الذكاء الاصطناعي في تصميم دروس تفاعلية ومبتكرة تلبي احتياجات الطلبة المتنوعة.
وأكد على أهمية تعزيز التفكير النقدي والإبداعي لدى الطلبة من خلال دمج الذكاء الاصطناعي كأداة مساعدة في التعليم، دون أن يكون بديلاً عن التفاعل المباشر والأنشطة التقليدية.
.article-img-ratio{ display:block;padding-bottom: 67%;position:relative; overflow: hidden;height:0px; } .article-img-ratio img{ object-fit: contain; object-position: center; position: absolute; height: 100% !important;padding:0px; margin: auto; width: 100%; } "التعليم" تحظر استخدام الذكاء الاصطناعي التوليدي دون إشراف أو موافقةدور أولياء الأمورخصص الدليل جزءًا مهمًا لتوضيح دور أولياء الأمور في مراقبة استخدام أطفالهم لأدوات الذكاء الاصطناعي التوليدي.
ودعا الدليل أولياء الأمور إلى توعية أطفالهم بالمخاطر المرتبطة بمشاركة المعلومات الشخصية مع هذه الأدوات، حيث يمكن أن يؤدي ذلك إلى انتهاك الخصوصية أو إساءة استخدام البيانات.
كما شدد على أهمية اختيار الأدوات الموثوقة والمعتمدة من قبل وزارة التعليم، والتي تلتزم بمعايير الأمان والخصوصية.
وشجع الدليل أولياء الأمور على تعزيز التوازن بين الأنشطة الرقمية والأنشطة الجسدية والاجتماعية، حيث يمكن أن يؤدي الاعتماد المفرط على التقنية إلى التأثير السلبي على الصحة النفسية والجسدية للأطفال.
وأكد على أهمية مراقبة وقت استخدام الأطفال للأدوات التقنية وتشجيعهم على تطوير مهاراتهم الشخصية بعيدًا عن الاعتماد الكلي على الذكاء الاصطناعي.
.article-img-ratio{ display:block;padding-bottom: 67%;position:relative; overflow: hidden;height:0px; } .article-img-ratio img{ object-fit: contain; object-position: center; position: absolute; height: 100% !important;padding:0px; margin: auto; width: 100%; } "التعليم" تحظر استخدام الذكاء الاصطناعي التوليدي دون إشراف أو موافقةتحسين العملية التعليميةأوضحت وزارة التعليم أن الدليل يهدف إلى تحقيق مجموعة من الأهداف التي تسعى إلى تحسين العملية التعليمية من خلال الاستفادة من التقنيات الحديثة، وعلى رأسها الذكاء الاصطناعي التوليدي.
يشمل ذلك رفع مستوى وعي الطلبة والمعلمين وأولياء الأمور بكيفية عمل هذه الأدوات، تقديم إرشادات واضحة ومفصلة للاستخدام الأخلاقي والمسؤول، وتعزيز مهارات التفكير النقدي والإبداعي لدى الطلبة.
كما يهدف الدليل إلى توجيه استخدام الذكاء الاصطناعي لتحسين جودة التعليم، مع الالتزام بحماية القيم الأخلاقية والمحافظة على حقوق المستخدمين.الخصوصية وأمن البياناتشددت وزارة التعليم على أهمية حماية الخصوصية وأمن بيانات الطلبة والمعلمين وأولياء الأمور عند استخدام أدوات الذكاء الاصطناعي التوليدي.
ودعا الدليل إلى الالتزام الكامل باللوائح الوطنية المتعلقة بحماية البيانات وعدم مشاركة أي معلومات شخصية أو حساسة مع هذه الأدوات.
وأكدت الوزارة أن استخدام الأدوات التي تلتزم بمعايير الخصوصية والأمان هو شرط أساسي لتحقيق بيئة تعليمية آمنة ومستدامة.
أكدت وزارة التعليم أن إصدار هذا الدليل يأتي في إطار الجهود المبذولة لتحقيق رؤية المملكة 2030 التي تسعى إلى تطوير منظومة تعليمية تعتمد على الابتكار والمعرفة.
ودعت الوزارة جميع الأطراف المعنية، من طلبة ومعلمين وأولياء أمور، إلى الالتزام بتوجيهات الدليل لضمان الاستخدام الأمثل لأدوات الذكاء الاصطناعي التوليدي بطريقة تخدم العملية التعليمية، وتعزز من بناء مستقبل مستدام يعتمد على المعرفة والكفاءة التقنية مع الحفاظ على القيم الأخلاقية والإنسانية.