«نافون إلكترونكس» تستقطب التقنيات المتقدمة وتوطينها لتوسيع الابتكار في الذكاء الاصطناعي
تاريخ النشر: 16th, April 2024 GMT
لم يقف تقاعد ماهر الرواحي، وعبدالله السكيتي، وإبراهيم الريامي عائقا في توظيف خبراتهم لتأسيس شركة «نافون إلكترونكس» المتخصصة في التقنيات المتقدمة للعمل على استقطاب هذا النوع من التقنيات وتوطينها في سلطنة عُمان، كما أسهمت الشركة في استقطاب المخرجات العمانية لتوسيع آفاق الابتكار في مجال الذكاء الاصطناعي وتقنيات الميتافيرس والفهم العميق لأحدث اتجاهات الصناعة والتقدمات التكنولوجية.
وقال ماهر بن سيف الرواحي الرئيس التنفيذي لشركة نافون إلكترونكس: أسست مع الرفقاء عبدالله السكتي وإبراهيم الريامي شركة «نافون إلكترونكس» ضمن مظلة هيئة تنمية المؤسسات الصغيرة والمتوسطة، وهي شركة متخصصة في مجال الذكاء الاصطناعي وتقنيات الميتافيرس في سلطنة عُمان، وتتمثل مجالات خبرتنا في تطوير وتنفيذ حلول مبتكرة عبر شبكات الويب التي تدمج كل من الأجهزة والبرامج بسلاسة، ويضم فريق «نافون إلكترونكس» مجموعة من المحترفين ذوي المهارات العالية والذين يكرّسون أنفسهم لتوسيع آفاق الابتكار في مجال الذكاء الاصطناعي وتقنيات الميتافيرس، وبفضل فهمهم العميق لأحدث اتجاهات الصناعة والتقدمات التكنولوجية، يقدمون باستمرار حلولًا متطورة تلبي الاحتياجات المحددة للمستخدمين النهائيين.
وأضاف الرواحي: نسعى لأن نكون في طليعة ثورة التكنولوجيا وتشكيل المشهد الرقمي من خلال تقنيات الذكاء الاصطناعي والميتافيرس، كما أننا نطمح إلى وضع معايير التميز في مجال التكنولوجيا، ودفع عجلة التقدم والاتصال لبناء عالم رقمي أكثر ذكاءً وتفاعلية للجميع، وتتمثل مهمة الشركة في تمكين الشركات والأفراد في سلطنة عُمان وخارجها من خلال إيجاد حلول مبتكرة ومتقدمة والتي تدمج بين كل الأجهزة والبرامج بشكل متكامل وسلس، مما يعزز الكفاءة والإبداع والتفاعل الرقمي في السوق المحلي، كما نسعى إلى دفع عجلة التنويع الاقتصادي والإسهام في الاقتصاد العماني القائم على المعرفة، وذلك من خلال تقديم حلول الذكاء الاصطناعي والميتافيرس المبتكرة، كما نهدف إلى تحقيق التقدم والارتقاء بالمجتمع ودعم تطلعات «رؤية عمان 2040» نحو مستقبل مستدام، مشيرًا إلى أن «نافون إلكترونكس» تقدم حلولًا متطورة للذكاء الاصطناعي والميتافيرس وتشمل خدماتنا التطوير المخصص للذكاء الاصطناعي والبيئات الرقمية التفاعلية، مما يضمن تكاملًا سلسًا وتجربة تحويلية للمستخدم، كما أننا نسعى لاحتضان المستقبل بخدماتنا المبتكرة المصممة لتلبية احتياجات الغد الرقمية، وتستفيد خدمات الذكاء الاصطناعي لدينا من قوة التعلم الآلي والخوارزميات الذكية لتقديم حلول ذكية تعتمد على البيانات، ونحن متخصصون في إنشاء أنظمة لا تقوم فقط بأتمتة المهام ولكنها توفر أيضًا رؤى وتحاليل عميقة، مما يسمح لنا باتخاذ قرارات مستنيرة والبقاء في صدارة المشهد الرقمي التنافسي المتزايد.
وأوضح أن الشركة لديها العديد من المنتجات والتطبيقات الإلكترونية بينها برنامج المحادثة الآلية (فارس جي بي تي المبني على مكتبة بيانات جي بي تي) وهو أحد إنجازاتنا البارزة التي تم تقديمها لوزارة النقل والاتصالات وتقنية المعلومات للمشاركة في البرنامج الخاص بالذكاء الاصطناعي والتقنيات المتقدمة، وكذلك برنامج المحادثة الآلية (فارس جي بي تي) إذ تم تجهيز برنامج المحادثة الآلية بالتضامن مع جي بي تي 3.5، وهو نموذج لغوي ضخم مزود بمجموعة هائلة من النصوص والرموز، ويمكّن هذا الدمج برنامج المحادثة الآلية الخاص بنا من تقديم ردود طبيعية وتفاعلية للأسئلة، مما يجعله مناسبًا أيضًا لدعم الزبائن والمتعاملين مع الشركة، كما أن من أهم التطبيقات برنامج المحادثة الآلية (فارس جي بي تي) والذي يقوم بأتمتة المهام المتكررة مثل إدخال البيانات وملء الاستمارات، مما يتيح للزبائن إمكانية التعامل مع استفسارات أكثر تعقيدًا والذي يهدف إلى ربط المؤسسات الحكومية، كما يمكنه تحليل مجموعات كبيرة من البيانات، وتوفير رؤى واتجاهات للمشروعات البحثية، ويمكن لبرنامج فارس جي بي تي تغذية البيانات الخاصة بمؤسسة ما، والذي سيسهل فهم زبائنها واحتياجات المؤسسة، كما أنه يعمل بصورة تكاملية مع الأنظمة والمنصات الحالية لإيجاد حل مرن وقابل للتطوير.
وأضاف: من خلال الميتافيرس أنشأنا محاكاة لطريق مسقط السريع بطول 12 كيلومترًا، وتستخدمها شرطة عُمان السلطانية لتدريب ضباطها على ظروف القيادة وسيناريوهات المطاردة وتخطيط الحوادث؛ فهو يسمح بالتدرب في بيئة آمنة وتعلم كيفية التعامل مع المواقف المختلفة، كما أنشأنا توأمًا رقميًا لعمليات النفط والغاز، ويعد هذا التوأم الرقمي نسخة افتراضية دقيقة لمنشآت النفط والغاز يمكن الوصول إليها عن بعد، ويسمح ذلك للمهندسين بالتفاعل مع المنشأة آنيًا ومحاكاة سيناريوهات مختلفة واستكشاف المشكلات، دون الحاجة إلى التواجد فعليًا في المنشأة، إضافة إلى محاكاة القيادة وهي تحاكي ظروف القيادة في العالم الحقيقي بدقة عالية، بما في ذلك ديناميكيات المركبة ورسم البيئة المحيطة والحركة المرورية، حيث إنها تستخدم خوارزميات متقدمة لنمذجة سلوك المركبة وتقديم ملاحظات واقعية للمتدربين، وأنشأنا سيناريوهات لتقييم المخاطر إذ يمكن للمستخدمين تصميم سيناريوهات قيادة مخصصة، بما في ذلك الظروف الجوية الخطرة وحالات الطوارئ والبيئات غير المألوفة، وهذا يسمح بالتدريب على المهارات اللازمة للتصدي للمخاطر المحددة، كما أنتجت الشركة العديد من التطبيقات في التوأم الرقمي للمصانع الذكية، والصيانة التنبؤية وإدارة الأصول، ومنصة صنع القرار التعاونية، وكذلك جهاز كشف الحريق البصري، ونظام الحلول التدريبية، ونظام سكادا باستخدام البوابة الإلكترونية لشركة نافون وهي عبارة عن حزمة برمجية تستخدم لإنشاء تطبيقات سكادا وواجهة المشغل مع دعم خادم الويب، ويحتوي على بيئة تطوير مدمجة مع أدوات لإنشاء تطبيقات متعددة اللغات، كما أنه يدعم معظم بروتوكولات الاتصال ويمكن استخدامه لإعداد بنى توزيع الشبكات للزبون والخادم أو لإنشاء تطبيقات ويب يمكن الوصول إليها من أجهزة مختلفة.
المصدر: لجريدة عمان
كلمات دلالية: الذکاء الاصطناعی من خلال فی مجال حلول ا
إقرأ أيضاً:
أسلحة الذكاء الاصطناعي ووهم سيطرة البشر
ترجمة - نهى مصطفى -
في عام 1984، وعد أرنولد شوارزنيجر في فيلم الخيال العلمي الشهير «المدمرThe Terminator»، الذي لعب فيه دور قاتل آلي من المستقبل، بـأنه «سيعود». ولم يكن يمزح. في مقابلة أجريت معه عام 2023، أشار الممثل الذي أصبح حاكمًا لولاية كاليفورنيا إلى أن رؤية الفيلم للأسلحة الآلية أصبحت الآن حقيقة واقعة، أو كما قال مخرج الفيلم جيمس كاميرون: «لقد حذرتكم في عام 1984، ولم تستمعوا إلي».
في المستقبل البائس الذي يصوره الفيلم، يصمم البشر نظامًا عسكريًا مدعومًا بالذكاء الاصطناعي يخرج عن السيطرة ويدمر البشرية، وهو ما لم يحدث بالمعنى الدقيق للكلمة، لكن في الوقت نفسه، تغيرت الحرب بلا شك في الأربعين عامًا الماضية منذ عرض فيلم «المدمر» في دور السينما، وأصبح يتم نشر الأسلحة المدعومة بالذكاء الاصطناعي بنشاط في ساحات القتال من أوكرانيا إلى غزة، ومن المرجح أن تلعب دورًا حاسمًا في أي صراع بين الولايات المتحدة والصين.
لا تزال تحذيرات فيلم «المدمر» من أن الآلات لا يمكن الوثوق بها في اتخاذ القرارات المهمة، مثل متى ومن يجب إطلاق النار عليه، قائمة في النفس البشرية الجماعية. ومع ذلك، الخطر الحقيقي قد لا يكمن في ضعف السيطرة البشرية على هذه الأنظمة، بل في الاعتقاد الواهم بأنه يمكن السيطرة على هذه الأسلحة على الإطلاق. يوفر هذا الوهم راحة زائفة للحكومات والجيوش والمجتمعات الديمقراطية من خلال تغذية الأمل الساذج في أنها يمكن تصميم أنظمة أفضل -أو أكثر أمانًا- بوجود البشر في حلقة اتخاذ القرار، أنظمة يمكن أن تتفوق على أنظمة الخصوم الاستبداديين الذين لديهم تحفظات أقل بشأن جعل كل شيء أوتوماتيكيًا.
ومع ذلك، عندما يتعلق الأمر بالسيطرة البشرية على أنظمة الأسلحة التي تعمل بالذكاء الاصطناعي، فإن الرأي السائد يظل أن المزيد أفضل. على سبيل المثال، تتطلب سياسة الحكومة الأمريكية صراحة أن يتم تصميم الأسلحة القاتلة المستقلة مع القدرة على التدخل البشري المناسب، ويؤكد كبار المسؤولين بانتظام على هذه الحقيقة. في أواخر عام 2023، بعد أن أطلقت وزارة الدفاع مبادرة Replicator، وهي محاولة لنشر آلاف الأنظمة المستقلة في جميع الخدمات العسكرية بحلول أغسطس 2025، صرحت نائبة وزير الدفاع كاثلين هيكس: «هناك دائمًا إنسان مسؤول عن استخدام القوة، نقطة». تسعى الأمم المتحدة إلى حظر الأسلحة المستقلة بالكامل واقترحت قواعد ملزمة دوليًا تتطلب من مثل هذه الأنظمة أن يكون هناك إنسان في حلقة إتخاذ القرار. تبنت العديد من المنظمات غير الحكومية، بما في ذلك Stop Killer Robots، ومعهد مستقبل الحياة Future of Life Institute، ومنظمة العفو الدولية، قضية السيطرة البشرية على الأسلحة المستقلة.
من غير الواقعي الاعتقاد بأن البشر يمكنهم التحكم في الخوارزميات المتطورة للأسلحة المستقلة أثناء القتال. فأنظمة الذكاء الاصطناعي المعاصرة غالبًا ما تكون معقدة لدرجة تجعل الإشراف البشري مستحيلًا، خاصة في ظروف الحرب التي تتسم بالتوتر والسرعة والانقطاع في التواصل. لذا، يجب على الجيوش استثمار الوقت والجهد خلال فترات السلم لبناء الثقة في نماذج الأسلحة المستقلة، وضمان جاهزيتها للعمل بفعالية ودون تدخل بشري مفرط عند اندلاع النزاعات.
تجعل المنافسة العسكرية بين الولايات المتحدة والصين تطوير ونشر أنظمة الأسلحة المستقلة أمرًا لا مفر منه، حيث تقدم الحرب في أوكرانيا دليلًا مبكرًا على هذا التحول في النموذج. وفي الوقت نفسه، تلتزم حكومة الولايات المتحدة بنشر الذكاء الاصطناعي على نطاق واسع وعلى الفور لمجموعة متنوعة من الأغراض الأمنية - تحليل الاستخبارات، والسلامة البيولوجية، والأمن السيبراني، وغيرها.
لسنوات، استثمرت بكين بكثافة في القدرات التي تهدف إلى تحييد إسقاط القوة الأمريكية في شرق آسيا، مما قد يسمح للصين بفرض أمر واقع على تايوان. وحتى وقت قريب، أعطى الجيش الأمريكي الأولوية للحفاظ على عدد صغير من منصات الأسلحة الكبيرة، مثل حاملات الطائرات والطائرات المقاتلة والقاذفات المتطورة. لكن هذا النهج لم يعد مستدامًا. فقد بنت الصين ووزعت عددًا كبيرًا من أنظمة الأسلحة الرخيصة نسبيًا، مثل: الصواريخ الباليستية المضادة للسفن والغواصات التي تعمل بالديزل والكهرباء، والتي قد تدمر بسهولة المنصات الرائعة للجيش الأمريكي ــ وهي استراتيجية تسمى «الإنكار»، التي تمنع الخصم من اتخاذ إجراء غير مرغوب فيه، ولكنها لا تسعى إلى تغيير رأي الخصم. ومن أجل استعادة ميزة الولايات المتحدة في شرق آسيا، شرع كل فرع من فروع القوات المسلحة في نشر ما يكفي من الأنظمة التي تعمل بدون تدخل بشري مباشر للتغلب على قدرات الإنكار الصينية.
الواقع أن الأسلحة الأوتوماتيكية والذكاء الاصطناعي والطائرات بدون طيار بدرجات متفاوتة من الاستقلالية تشكل مكونات أساسية في أحدث مفاهيم العمليات التي تتبناها الخدمات العسكرية الأمريكية: تصميم قوة مشاة البحرية لعام 2030، والعمليات البحرية الموزعة للبحرية، وعمليات القتال واسعة النطاق للجيش، ومفهوم التشغيل المستقبلي للقوات الجوية، كل هذه المفاهيم تعتمد بدورها على مبادرة مستمرة أطلقت في عام 2022 والمعروفة باسم القيادة والسيطرة المشتركة لجميع المجالات، والتي بلغت تكلفتها 1.4 مليار دولار في عام 2024 وحده. ووفقًا لوزارة الدفاع، يهدف البرنامج إلى ربط «كل جهاز استشعار وكل مطلق نار» من أجل «اكتشاف وجمع وربط وتجميع ومعالجة واستغلال البيانات من جميع المجالات والمصادر» وبالتالي إنشاء «نسيج بيانات» موحد. وببساطة، ينبغي أن يكون كل شيء قادر على جمع البيانات، من الأقمار الصناعية إلى الطائرات بدون طيار البحرية إلى الجندي في الميدان، قادرًا على مشاركتها واستخدامها.
الأنظمة التي تعمل بدون تدخل بشري تشكل ركيزة لا غنى عنها في هذا النسيج من البيانات. فعلى الأرض، سوف تعمل هذه الأنظمة على تعزيز القدرة على القتل والحد من الخسائر بين الأصدقاء والمدنيين من خلال توفير قدر أعظم من الدقة. وفي الجو، سوف تتمتع الطائرات بدون طيار بقدرة أكبر على التحمل والقدرة على المناورة، وسوف تنتشر بأعداد أكبر، وتتعاون لتغطية مناطق أكبر، وتعقّد عملية الاستهداف المضاد للعدوان. وفي البحر، سوف تخترق السفن التي تعمل بدون تدخل بشري مناطق كانت من قبل يصعب الوصول إليها.
بطبيعة الحال، ليست التكتيكات والعمليات هي الاعتبارات الوحيدة في الحرب. ومن منظور أخلاقي، يخشى العديد من المراقبين أنه في غياب الرقابة، قد تنطلق الآلات غير المفكرة في فوضى، وتنتهك المبادئ العريقة مثل التناسب (الذي يملي ألا يتجاوز الضرر الذي يفرضه العمل العسكري فوائده) والتمييز (الذي يفرض على الجيوش التمييز بين المقاتلين والمدنيين). ويخشى آخرون أن تستغل الأنظمة المستقلة السكان الضعفاء بسبب التحيزات في بيانات التدريب الخاصة بها أو أن تقوم جهات غير حكومية باختراق أو سرقة الأسلحة المستقلة واستخدامها لأغراض خبيثة.
يرى منتقدو الأسلحة المستقلة أن التركيز على الفعالية التكتيكية أو التشغيلية يمكن أن يؤدي إلى نتائج استراتيجية كارثية، مثل التصعيد غير المقصود. فهم يجادلون بأن البشر يمتلكون قدرة على دمج سياق أوسع في قراراتهم، مما يجعلهم أكثر مرونة في التعامل مع الفوضى أو الظروف غير المتوقعة مقارنة بالآلات التي تلتزم بالنص المبرمج. ومع ذلك، لا يزال الشك يحيط بفكرة السماح للآلات باتخاذ قرارات خطيرة مثل القتل أو تصعيد النزاعات العسكرية. تستند هذه الشكوك إلى أمثلة ملموسة لأخطاء الذكاء الاصطناعي، مثل حوادث السيارات ذاتية القيادة أو «هلوسات» أنظمة الدردشة. ويظل الاعتقاد السائد أن البشر أقل ميلًا لسفك الدماء دون داعٍ أو تصعيد الصراعات بشكل غير محسوب.
تدعم هذه الحجج الأخلاقية والعملية الحقيقة الأساسية المتمثلة في أن حتى أكثر الأنظمة المستقلة تقدمًا مع الذكاء الاصطناعي سوف ترتكب أخطاء. ومع ذلك، فقد تقدم الذكاء الاصطناعي إلى النقطة التي أصبح فيها التحكم البشري في كثير من الأحيان اسميًا أكثر من كونه حقيقيًا. والواقع أن الشعور المتضخم بقدرة البشر على التحكم في الذكاء الاصطناعي من شأنه أن يؤدي إلى تفاقم المخاطر ذاتها التي يخشاها المنتقدون. والوهم بأن البشر سوف يكونون قادرين على التدخل في سيناريوهات قتالية مستقبلية تعد بالتوتر الشديد والسرعة العالية -وخلالها سوف تتدهور الاتصالات أو تتقطع- يمنع صناع السياسات والعسكريين ومصممو الأنظمة من اتخاذ الخطوات اللازمة لابتكار واختبار وتقييم أنظمة مستقلة آمنة.
سوف تكون الحروب المستقبلية التي تعتمد على الذكاء الاصطناعي أسرع وأكثر اعتمادًا على البيانات، حيث يمكن نشر أنظمة الأسلحة التي تعتمد على الذكاء الاصطناعي (على سبيل المثال، أسراب الطائرات بدون طيار) بسرعة وعلى نطاق واسع. ولن يكون لدى البشر الوقت ولا القدرة المعرفية لتقييم هذه البيانات بشكل مستقل عن الآلة. على سبيل المثال، استخدمت إسرائيل نظام توليد أهداف مدعوم بالذكاء الاصطناعي أثناء الحرب في غزة، وهذا النظام، الذي يستخدم مئات الآلاف من التفاصيل لتصنيف الأهداف على أنها معادية، متطور بحيث لا يمكنه التكهن عندما يتعين اتخاذ القرارات في دقائق أو ثوانٍ.
البشر لا يستطيعون تفسير الكميات الهائلة من البيانات التي تجمعها مثل هذه المجموعة من الأنظمة وتحليلها لاتخاذ قرارات سليمة. من الممكن توسيع نطاق الأنظمة المستقلة لاستيعاب عدد أكبر من المهام التفاعلية والمعقدة، لكن القدرات البشرية ثابتة. وسوف يؤدي الضغط لتسريع التفسير والتحليل البشري إلى اتخاذ قرارات أقل تفكيرًا وأكثر عرضة للخطأ. وفي الوقت نفسه، وبدون تسريع عملية اتخاذ القرار، فإن اختيار الإجراءات سوف يصبح عتيقًا في بيئة سريعة الحركة.
في الصراعات المستقبلية، وخاصة بين الولايات المتحدة والصين، قد يؤدي استهداف الأقمار الصناعية والتشويش على الاتصالات إلى عزل القادة والأفراد عن الإشراف والدعم، مثال على ذلك، قوات مشاة البحرية «القوات الاحتياطية» المصممة كوحدات قتالية صغيرة موزعة تعمل ضمن نطاق الأسلحة الصينية. لضمان البقاء، ستقلل هذه القوات توقيعاتها الكهرومغناطيسية بالحد من استخدام أجهزة الاتصالات والرادارات، ما يفرض عليها اتخاذ قرارات مستقلة اعتمادًا على البيانات التي تجمعها فقط، دون سياق خارجي أو دعم إضافي.
اقترح صناع السياسات والقادة العسكريون تقليل استخدام الأنظمة المستقلة لتناسب السرعة البشرية، سيؤدي فقط إلى استجابات أبطأ، كما أن تحسين تدريب المشغلين يحقق مكاسب محدودة نظرًا لتفوق الذكاء الاصطناعي في القوة المعرفية وزيادة حجم البيانات.
رغم تصريحات المسؤولين الأمريكيين بأن أنظمة الذكاء الاصطناعي العسكرية يجب أن تقتصر على تقديم اقتراحات، فإن الحرب المدعومة بالذكاء الاصطناعي تُظهر استقلالية أكبر في العمليات. مثال ذلك الطائرات بدون طيار في أوكرانيا، التي تعمل بشكل مستقل بسبب التشويش على اتصالاتها. ولا يمكن بسهولة فصل الاستخدامات الدفاعية عن الهجومية للأسلحة ذاتية التشغيل، حيث يمكن أن يدعم الدفاع التكتيكي الهجوم العملياتي والعكس، وفقاً للاستراتيجيات العسكرية الكلاسيكية.
توصيات السيطرة البشرية على الأسلحة المستقلة ليست سوى مسكنات، تمنح شعورًا زائفًا بالأمان بينما تعرقل قدرة القوات على تحقيق النصر وتضع عبء القرارات الأخلاقية والعملية على الجنود في ظروف حرجة. بدلاً من ذلك، يجب على صناع السياسات تبني نهج واقعي وأكثر أخلاقية لأنظمة الأسلحة المستقلة. يتطلب هذا النهج أن تُتخذ القرارات الحاسمة، مثل تلك المتعلقة بالتناسب والتمييز، في أوقات السلم، حيث يمكن الاعتماد على المدخلات المتخصصة والنقاش الديمقراطي والإشراف الفعّال. الهدف هو ضمان السيطرة البشرية والمساءلة في ظروف مناسبة، بعيدًا عن ضغوط الحرب حيث يمكن أن تؤدي القرارات المتسرعة إلى خسائر جسيمة.
في العقود القادمة، ستعتمد الولايات المتحدة بشكل متزايد على أنظمة الأسلحة المستقلة المدعومة بالذكاء الاصطناعي. التمسك بفكرة السيطرة البشرية أثناء الحرب سيضع الدول الديمقراطية في موقف ضعف أمام خصوم لا يلتزمون بهذه القيود. كما أن اتخاذ القرارات الحاسمة أثناء الحرب، في ظل الضغوط الشديدة، قد يؤدي إلى نتائج أقل أخلاقية. لذلك، ينبغي للحكومات برمجة المدخلات البشرية في الأنظمة مسبقًا، مع مراقبتها وتحسينها باستمرار، وبناء الثقة بها. الفشل في تحقيق ذلك قد يجعل السيطرة البشرية على الذكاء الاصطناعي العسكري أكثر تكلفة في الأرواح بدلاً من إنقاذها.
سيباستيان إلباوم عالم كمبيوتر أمريكي من أصل أرجنتيني، وأستاذ في جامعة فرجينيا.
جوناثان بانتر زميل ستانتون للأمن النووي في مجلس العلاقات الخارجية (CFR).
المقال نشر في Foreign Affairs