كشف معرض الإلكترونيات الاستهلاكية (CES) 2024، وهو منصة عالمية للابتكار، عن مجموعة كبيرة من منتجات وخدمات الذكاء الاصطناعي (AI) التي تعد بإعادة تعريف دور التكنولوجيا في حياتنا اليومية. من عربات الأطفال التي تعمل بالذكاء الاصطناعي إلى المعينات السمعية، كان هذا الحدث بمثابة شهادة على الإمكانات اللامحدودة للذكاء الاصطناعي.

Gluxkind Rosa: عربة أطفال ذكية للوالدين العصريين
سرقت شركة Gluxkind Rosa الأضواء من خلال عربة الأطفال التي تعمل بالذكاء الاصطناعي والمصممة لمساعدة الآباء. مجهزة بفرامل أوتوماتيكية وميزة الضوضاء البيضاء، ترمز عربة الأطفال هذه إلى كيفية قيام الذكاء الاصطناعي بتبسيط المهام في الحياة اليومية.


Metis من Axelera AI: دفع حدود أداء الذكاء الاصطناعي
قدمت شركة Axelera AI منصة Metis AI الخاصة بها، والتي غيرت قواعد اللعبة بالنسبة للأجهزة المتطورة. باستخدام تقنية الحوسبة في الذاكرة وتدفق البيانات الخاضع للتحكم القائم على RISC-V، تعد Metis بتعزيز أداء الذكاء الاصطناعي مع تقليل الطاقة والتكلفة.

AIShield.GuardIan من Bosch: ضمان الاستخدام الآمن والمسؤول للذكاء الاصطناعي
كشفت شركة Bosch Global Software Technologies عن AIShield.GuardIan، وهي خدمة مصممة لضمان الاستخدام الآمن والمسؤول للذكاء الاصطناعي التوليدي. من خلال التركيز على الأمان والامتثال، يسلط AIShield.GuardIan الضوء على الحاجة إلى تنظيم الذكاء الاصطناعي.

سلسلة Ryzen 7040U من AMD: تشغيل أجهزة الكمبيوتر المحمولة فائقة النحافة
عرضت AMD معالجاتها المحمولة من سلسلة Ryzen 7040U، المدمجة مع Radeon 780M iGPU المستندة إلى RDNA 3. تم تصميم هذه المعالجات خصيصًا لأجهزة الكمبيوتر المحمولة فائقة النحافة، مما يدل على التزام AMD بالجمع بين القوة وسهولة الحمل.

مزرعة الألغام لنظام GSF: نظام نمو النباتات الداخلي القائم على الذكاء الاصطناعي
نظام MineFarm الخاص بنظام GSF هو نظام لنمو النباتات الداخلية يعتمد على الذكاء الاصطناعي ويعمل على توفير المياه والكهرباء مع توفير مراقبة البيانات من خلال تطبيق على الهاتف المحمول. ويؤكد هذا الابتكار دور الذكاء الاصطناعي في تعزيز الاستدامة.

Anima الحالية لـ HechicerIA: أداة تحويل النص إلى فيديو
قدمت HechicerIA أداة Current Anima، وهي أداة تحويل نص إلى فيديو مدعومة بمحرك الرسومات Unreal 3-D. مناسبة لمختلف تطبيقات الوسائط المتعددة، وتعكس هذه الأداة إمكانات الذكاء الاصطناعي في إنشاء المحتوى.

Starkey's Genesis AI: تعزيز قدرات السمع
كشفت مختبرات ستاركي عن Genesis AI، وهو جهاز مساعد للسمع مزود بمحرك مسرع للشبكة العصبية العميقة. يعد هذا الجهاز بتعزيز قدرات السمع، وإظهار إمكانات الذكاء الاصطناعي في مجال الرعاية الصحية.

Whispp: التكنولوجيا المساعدة لإعاقات النطق
وأخيرًا، قدمت Whispp تطبيقًا مساعدًا للأفراد الذين يعانون من إعاقات في النطق. متوافق مع أجهزة Android وiOS، ولا يتطلب التطبيق من المستلمين تنزيله لسماع صوت Whispp، مما يدل على قدرة الذكاء الاصطناعي على مساعدة التواصل.

وفي الختام، كان معرض CES 2024 بمثابة شهادة على الإمكانيات التي لا نهاية لها للذكاء الاصطناعي، بدءًا من تبسيط المهام اليومية إلى تعزيز التواصل وتعزيز الاستدامة.

المصدر: بوابة الوفد

كلمات دلالية: للذکاء الاصطناعی الذکاء الاصطناعی

إقرأ أيضاً:

أسلحة الذكاء الاصطناعي ووهم سيطرة البشر

ترجمة - نهى مصطفى -

في عام 1984، وعد أرنولد شوارزنيجر في فيلم الخيال العلمي الشهير «المدمرThe Terminator»، الذي لعب فيه دور قاتل آلي من المستقبل، بـأنه «سيعود». ولم يكن يمزح. في مقابلة أجريت معه عام 2023، أشار الممثل الذي أصبح حاكمًا لولاية كاليفورنيا إلى أن رؤية الفيلم للأسلحة الآلية أصبحت الآن حقيقة واقعة، أو كما قال مخرج الفيلم جيمس كاميرون: «لقد حذرتكم في عام 1984، ولم تستمعوا إلي».

في المستقبل البائس الذي يصوره الفيلم، يصمم البشر نظامًا عسكريًا مدعومًا بالذكاء الاصطناعي يخرج عن السيطرة ويدمر البشرية، وهو ما لم يحدث بالمعنى الدقيق للكلمة، لكن في الوقت نفسه، تغيرت الحرب بلا شك في الأربعين عامًا الماضية منذ عرض فيلم «المدمر» في دور السينما، وأصبح يتم نشر الأسلحة المدعومة بالذكاء الاصطناعي بنشاط في ساحات القتال من أوكرانيا إلى غزة، ومن المرجح أن تلعب دورًا حاسمًا في أي صراع بين الولايات المتحدة والصين.

لا تزال تحذيرات فيلم «المدمر» من أن الآلات لا يمكن الوثوق بها في اتخاذ القرارات المهمة، مثل متى ومن يجب إطلاق النار عليه، قائمة في النفس البشرية الجماعية. ومع ذلك، الخطر الحقيقي قد لا يكمن في ضعف السيطرة البشرية على هذه الأنظمة، بل في الاعتقاد الواهم بأنه يمكن السيطرة على هذه الأسلحة على الإطلاق. يوفر هذا الوهم راحة زائفة للحكومات والجيوش والمجتمعات الديمقراطية من خلال تغذية الأمل الساذج في أنها يمكن تصميم أنظمة أفضل -أو أكثر أمانًا- بوجود البشر في حلقة اتخاذ القرار، أنظمة يمكن أن تتفوق على أنظمة الخصوم الاستبداديين الذين لديهم تحفظات أقل بشأن جعل كل شيء أوتوماتيكيًا.

ومع ذلك، عندما يتعلق الأمر بالسيطرة البشرية على أنظمة الأسلحة التي تعمل بالذكاء الاصطناعي، فإن الرأي السائد يظل أن المزيد أفضل. على سبيل المثال، تتطلب سياسة الحكومة الأمريكية صراحة أن يتم تصميم الأسلحة القاتلة المستقلة مع القدرة على التدخل البشري المناسب، ويؤكد كبار المسؤولين بانتظام على هذه الحقيقة. في أواخر عام 2023، بعد أن أطلقت وزارة الدفاع مبادرة Replicator، وهي محاولة لنشر آلاف الأنظمة المستقلة في جميع الخدمات العسكرية بحلول أغسطس 2025، صرحت نائبة وزير الدفاع كاثلين هيكس: «هناك دائمًا إنسان مسؤول عن استخدام القوة، نقطة». تسعى الأمم المتحدة إلى حظر الأسلحة المستقلة بالكامل واقترحت قواعد ملزمة دوليًا تتطلب من مثل هذه الأنظمة أن يكون هناك إنسان في حلقة إتخاذ القرار. تبنت العديد من المنظمات غير الحكومية، بما في ذلك Stop Killer Robots، ومعهد مستقبل الحياة Future of Life Institute، ومنظمة العفو الدولية، قضية السيطرة البشرية على الأسلحة المستقلة.

من غير الواقعي الاعتقاد بأن البشر يمكنهم التحكم في الخوارزميات المتطورة للأسلحة المستقلة أثناء القتال. فأنظمة الذكاء الاصطناعي المعاصرة غالبًا ما تكون معقدة لدرجة تجعل الإشراف البشري مستحيلًا، خاصة في ظروف الحرب التي تتسم بالتوتر والسرعة والانقطاع في التواصل. لذا، يجب على الجيوش استثمار الوقت والجهد خلال فترات السلم لبناء الثقة في نماذج الأسلحة المستقلة، وضمان جاهزيتها للعمل بفعالية ودون تدخل بشري مفرط عند اندلاع النزاعات.

تجعل المنافسة العسكرية بين الولايات المتحدة والصين تطوير ونشر أنظمة الأسلحة المستقلة أمرًا لا مفر منه، حيث تقدم الحرب في أوكرانيا دليلًا مبكرًا على هذا التحول في النموذج. وفي الوقت نفسه، تلتزم حكومة الولايات المتحدة بنشر الذكاء الاصطناعي على نطاق واسع وعلى الفور لمجموعة متنوعة من الأغراض الأمنية - تحليل الاستخبارات، والسلامة البيولوجية، والأمن السيبراني، وغيرها.

لسنوات، استثمرت بكين بكثافة في القدرات التي تهدف إلى تحييد إسقاط القوة الأمريكية في شرق آسيا، مما قد يسمح للصين بفرض أمر واقع على تايوان. وحتى وقت قريب، أعطى الجيش الأمريكي الأولوية للحفاظ على عدد صغير من منصات الأسلحة الكبيرة، مثل حاملات الطائرات والطائرات المقاتلة والقاذفات المتطورة. لكن هذا النهج لم يعد مستدامًا. فقد بنت الصين ووزعت عددًا كبيرًا من أنظمة الأسلحة الرخيصة نسبيًا، مثل: الصواريخ الباليستية المضادة للسفن والغواصات التي تعمل بالديزل والكهرباء، والتي قد تدمر بسهولة المنصات الرائعة للجيش الأمريكي ــ وهي استراتيجية تسمى «الإنكار»، التي تمنع الخصم من اتخاذ إجراء غير مرغوب فيه، ولكنها لا تسعى إلى تغيير رأي الخصم. ومن أجل استعادة ميزة الولايات المتحدة في شرق آسيا، شرع كل فرع من فروع القوات المسلحة في نشر ما يكفي من الأنظمة التي تعمل بدون تدخل بشري مباشر للتغلب على قدرات الإنكار الصينية.

الواقع أن الأسلحة الأوتوماتيكية والذكاء الاصطناعي والطائرات بدون طيار بدرجات متفاوتة من الاستقلالية تشكل مكونات أساسية في أحدث مفاهيم العمليات التي تتبناها الخدمات العسكرية الأمريكية: تصميم قوة مشاة البحرية لعام 2030، والعمليات البحرية الموزعة للبحرية، وعمليات القتال واسعة النطاق للجيش، ومفهوم التشغيل المستقبلي للقوات الجوية، كل هذه المفاهيم تعتمد بدورها على مبادرة مستمرة أطلقت في عام 2022 والمعروفة باسم القيادة والسيطرة المشتركة لجميع المجالات، والتي بلغت تكلفتها 1.4 مليار دولار في عام 2024 وحده. ووفقًا لوزارة الدفاع، يهدف البرنامج إلى ربط «كل جهاز استشعار وكل مطلق نار» من أجل «اكتشاف وجمع وربط وتجميع ومعالجة واستغلال البيانات من جميع المجالات والمصادر» وبالتالي إنشاء «نسيج بيانات» موحد. وببساطة، ينبغي أن يكون كل شيء قادر على جمع البيانات، من الأقمار الصناعية إلى الطائرات بدون طيار البحرية إلى الجندي في الميدان، قادرًا على مشاركتها واستخدامها.

الأنظمة التي تعمل بدون تدخل بشري تشكل ركيزة لا غنى عنها في هذا النسيج من البيانات. فعلى الأرض، سوف تعمل هذه الأنظمة على تعزيز القدرة على القتل والحد من الخسائر بين الأصدقاء والمدنيين من خلال توفير قدر أعظم من الدقة. وفي الجو، سوف تتمتع الطائرات بدون طيار بقدرة أكبر على التحمل والقدرة على المناورة، وسوف تنتشر بأعداد أكبر، وتتعاون لتغطية مناطق أكبر، وتعقّد عملية الاستهداف المضاد للعدوان. وفي البحر، سوف تخترق السفن التي تعمل بدون تدخل بشري مناطق كانت من قبل يصعب الوصول إليها.

بطبيعة الحال، ليست التكتيكات والعمليات هي الاعتبارات الوحيدة في الحرب. ومن منظور أخلاقي، يخشى العديد من المراقبين أنه في غياب الرقابة، قد تنطلق الآلات غير المفكرة في فوضى، وتنتهك المبادئ العريقة مثل التناسب (الذي يملي ألا يتجاوز الضرر الذي يفرضه العمل العسكري فوائده) والتمييز (الذي يفرض على الجيوش التمييز بين المقاتلين والمدنيين). ويخشى آخرون أن تستغل الأنظمة المستقلة السكان الضعفاء بسبب التحيزات في بيانات التدريب الخاصة بها أو أن تقوم جهات غير حكومية باختراق أو سرقة الأسلحة المستقلة واستخدامها لأغراض خبيثة.

يرى منتقدو الأسلحة المستقلة أن التركيز على الفعالية التكتيكية أو التشغيلية يمكن أن يؤدي إلى نتائج استراتيجية كارثية، مثل التصعيد غير المقصود. فهم يجادلون بأن البشر يمتلكون قدرة على دمج سياق أوسع في قراراتهم، مما يجعلهم أكثر مرونة في التعامل مع الفوضى أو الظروف غير المتوقعة مقارنة بالآلات التي تلتزم بالنص المبرمج. ومع ذلك، لا يزال الشك يحيط بفكرة السماح للآلات باتخاذ قرارات خطيرة مثل القتل أو تصعيد النزاعات العسكرية. تستند هذه الشكوك إلى أمثلة ملموسة لأخطاء الذكاء الاصطناعي، مثل حوادث السيارات ذاتية القيادة أو «هلوسات» أنظمة الدردشة. ويظل الاعتقاد السائد أن البشر أقل ميلًا لسفك الدماء دون داعٍ أو تصعيد الصراعات بشكل غير محسوب.

تدعم هذه الحجج الأخلاقية والعملية الحقيقة الأساسية المتمثلة في أن حتى أكثر الأنظمة المستقلة تقدمًا مع الذكاء الاصطناعي سوف ترتكب أخطاء. ومع ذلك، فقد تقدم الذكاء الاصطناعي إلى النقطة التي أصبح فيها التحكم البشري في كثير من الأحيان اسميًا أكثر من كونه حقيقيًا. والواقع أن الشعور المتضخم بقدرة البشر على التحكم في الذكاء الاصطناعي من شأنه أن يؤدي إلى تفاقم المخاطر ذاتها التي يخشاها المنتقدون. والوهم بأن البشر سوف يكونون قادرين على التدخل في سيناريوهات قتالية مستقبلية تعد بالتوتر الشديد والسرعة العالية -وخلالها سوف تتدهور الاتصالات أو تتقطع- يمنع صناع السياسات والعسكريين ومصممو الأنظمة من اتخاذ الخطوات اللازمة لابتكار واختبار وتقييم أنظمة مستقلة آمنة.

سوف تكون الحروب المستقبلية التي تعتمد على الذكاء الاصطناعي أسرع وأكثر اعتمادًا على البيانات، حيث يمكن نشر أنظمة الأسلحة التي تعتمد على الذكاء الاصطناعي (على سبيل المثال، أسراب الطائرات بدون طيار) بسرعة وعلى نطاق واسع. ولن يكون لدى البشر الوقت ولا القدرة المعرفية لتقييم هذه البيانات بشكل مستقل عن الآلة. على سبيل المثال، استخدمت إسرائيل نظام توليد أهداف مدعوم بالذكاء الاصطناعي أثناء الحرب في غزة، وهذا النظام، الذي يستخدم مئات الآلاف من التفاصيل لتصنيف الأهداف على أنها معادية، متطور بحيث لا يمكنه التكهن عندما يتعين اتخاذ القرارات في دقائق أو ثوانٍ.

البشر لا يستطيعون تفسير الكميات الهائلة من البيانات التي تجمعها مثل هذه المجموعة من الأنظمة وتحليلها لاتخاذ قرارات سليمة. من الممكن توسيع نطاق الأنظمة المستقلة لاستيعاب عدد أكبر من المهام التفاعلية والمعقدة، لكن القدرات البشرية ثابتة. وسوف يؤدي الضغط لتسريع التفسير والتحليل البشري إلى اتخاذ قرارات أقل تفكيرًا وأكثر عرضة للخطأ. وفي الوقت نفسه، وبدون تسريع عملية اتخاذ القرار، فإن اختيار الإجراءات سوف يصبح عتيقًا في بيئة سريعة الحركة.

في الصراعات المستقبلية، وخاصة بين الولايات المتحدة والصين، قد يؤدي استهداف الأقمار الصناعية والتشويش على الاتصالات إلى عزل القادة والأفراد عن الإشراف والدعم، مثال على ذلك، قوات مشاة البحرية «القوات الاحتياطية» المصممة كوحدات قتالية صغيرة موزعة تعمل ضمن نطاق الأسلحة الصينية. لضمان البقاء، ستقلل هذه القوات توقيعاتها الكهرومغناطيسية بالحد من استخدام أجهزة الاتصالات والرادارات، ما يفرض عليها اتخاذ قرارات مستقلة اعتمادًا على البيانات التي تجمعها فقط، دون سياق خارجي أو دعم إضافي.

اقترح صناع السياسات والقادة العسكريون تقليل استخدام الأنظمة المستقلة لتناسب السرعة البشرية، سيؤدي فقط إلى استجابات أبطأ، كما أن تحسين تدريب المشغلين يحقق مكاسب محدودة نظرًا لتفوق الذكاء الاصطناعي في القوة المعرفية وزيادة حجم البيانات.

رغم تصريحات المسؤولين الأمريكيين بأن أنظمة الذكاء الاصطناعي العسكرية يجب أن تقتصر على تقديم اقتراحات، فإن الحرب المدعومة بالذكاء الاصطناعي تُظهر استقلالية أكبر في العمليات. مثال ذلك الطائرات بدون طيار في أوكرانيا، التي تعمل بشكل مستقل بسبب التشويش على اتصالاتها. ولا يمكن بسهولة فصل الاستخدامات الدفاعية عن الهجومية للأسلحة ذاتية التشغيل، حيث يمكن أن يدعم الدفاع التكتيكي الهجوم العملياتي والعكس، وفقاً للاستراتيجيات العسكرية الكلاسيكية.

توصيات السيطرة البشرية على الأسلحة المستقلة ليست سوى مسكنات، تمنح شعورًا زائفًا بالأمان بينما تعرقل قدرة القوات على تحقيق النصر وتضع عبء القرارات الأخلاقية والعملية على الجنود في ظروف حرجة. بدلاً من ذلك، يجب على صناع السياسات تبني نهج واقعي وأكثر أخلاقية لأنظمة الأسلحة المستقلة. يتطلب هذا النهج أن تُتخذ القرارات الحاسمة، مثل تلك المتعلقة بالتناسب والتمييز، في أوقات السلم، حيث يمكن الاعتماد على المدخلات المتخصصة والنقاش الديمقراطي والإشراف الفعّال. الهدف هو ضمان السيطرة البشرية والمساءلة في ظروف مناسبة، بعيدًا عن ضغوط الحرب حيث يمكن أن تؤدي القرارات المتسرعة إلى خسائر جسيمة.

في العقود القادمة، ستعتمد الولايات المتحدة بشكل متزايد على أنظمة الأسلحة المستقلة المدعومة بالذكاء الاصطناعي. التمسك بفكرة السيطرة البشرية أثناء الحرب سيضع الدول الديمقراطية في موقف ضعف أمام خصوم لا يلتزمون بهذه القيود. كما أن اتخاذ القرارات الحاسمة أثناء الحرب، في ظل الضغوط الشديدة، قد يؤدي إلى نتائج أقل أخلاقية. لذلك، ينبغي للحكومات برمجة المدخلات البشرية في الأنظمة مسبقًا، مع مراقبتها وتحسينها باستمرار، وبناء الثقة بها. الفشل في تحقيق ذلك قد يجعل السيطرة البشرية على الذكاء الاصطناعي العسكري أكثر تكلفة في الأرواح بدلاً من إنقاذها.

سيباستيان إلباوم عالم كمبيوتر أمريكي من أصل أرجنتيني، وأستاذ في جامعة فرجينيا.

جوناثان بانتر زميل ستانتون للأمن النووي في مجلس العلاقات الخارجية (CFR).

المقال نشر في Foreign Affairs

مقالات مشابهة

  • دور الذكاء الاصطناعي في الارتقاء بقطاع الرعاية الصحية
  • أهم ابتكارات الذكاء الاصطناعي في الصحة عام 2024
  • أسلحة الذكاء الاصطناعي ووهم سيطرة البشر
  • مدير مركز المعلومات الوطني في “سدايا” : تعزيز الاستخدام الأخلاقي والمسؤول للذكاء الاصطناعي يأتي على رأس أجندة المملكة لهذه التقنيات المتقدمة
  • ماذا يحصل لنا بسبب قلة النوم؟.. الذكاء الاصطناعي يجيب
  • التلاعب والكذب والخداع..قصص وحوادث الوجه المظلم للذكاء الاصطناعي
  • فوز 3 فرق قدمت حلولاً تقنية علاجية بمنافسات هاكاثون الذكاء الاصطناعي في أمراض العيون
  • المملكة الأولى بالعالم بنيلها أكبر عدد من ميداليات مسابقة الذكاء الاصطناعي العالمية للشباب من بين 129 دولة
  • اللغة في عالم الذكاء الاصطناعي
  • منظمة اليونسكو تنشر تقريرًا دوليًا حول الذكاء الاصطناعي في المملكة إشادة بما حققته في ذلك المجال التقني المتقدم