رئيس مايكروسوفت: الذكاء الاصطناعي يحتاج إلى "التحكم البشري" لتجنب تسليحه
تاريخ النشر: 29th, August 2023 GMT
حذر رئيس مايكروسوفت ونائب الرئيس التنفيذي براد سميث، أن الذكاء الاصطناعي يمكن أن يسلح نفسه ويحتاج إلى أن يكون تحت سيطرة البشر، لمنعه من الوصول إلى هذه المرحلة.
وعبّر سميث في مقابلة مع شبكة CNBC عن اعتقاده بأن "كل تقنية تم اختراعها على وجه الأرض، لديها القدرة على أن تصبح أداة وسلاحاً على حد سواء".
وتابع أنه "يجب التأكد من أن الذكاء الاصطناعي لا يزال خاضعاً للسيطرة البشرية، سواء كان الأمر يتعلق بحكومة أو جهاز عسكري أو أي نوع من المنظمات، التي تفكر في استخدام الذكاء الاصطناعي لأتمتة البنية التحتية الحيوية على سبيل المثال، يجب علينا التأكد من وجود بشر في السيطرة، حتى نتمكن من إبطاء الأمور أو إيقافها.
وكان قادة التكنولوجيا حول العالم حذروا في الأشهر الماضية من مخاطر الذكاء الاصطناعي، بعد أن شاع بشكل واسع استخدام منصة ChatGPT الذكية بسبب قدرته على إنتاج استجابات تشبه تلك الصادرة عن البشر.
وقال سميث على هامش قمة الأعمال 20 في نيودلهي الهندية، إن هذا السبب مرده دعوة الشركات "للقيام بالشيء الصحيح، ولكن أيضاً ندعو الحكومات لوضع قوانين ولوائح تنظيمية تضمن وجود فواصل أمان".
ووصف سميث الحالة بما حصل للتيار الكهربائي وتحكم الإنسان بالمفاتيح الكهربائية، أو من خلال وضع المكابح على السيارات بما فيها تلك التي تقود نفسها بنفسها، "قمنا بذلك من قبل لتقنيات أخرى.. ونحتاج الآن للقيام بذلك للذكاء الاصطناعي".
وعن الذكاء الاصطناعي واستخداماته، أشار المسؤول التنفيذي في مايكروسوفت إلى أن الذكاء الاصطناعي هو أداة تكميلية لعمل الإنسان، وليس بديلاً عن الوظائف، "إنها أداة لمساعدة الناس على التفكير بشكل أذكى وأسرع.. وأكبر خطأ يمكن أن يرتكبه الناس هو التفكير في أن هذه الأداة ستمكن الناس من التوقف عن التفكير".
المصدر: موقع 24
كلمات دلالية: التغير المناخي محاكمة ترامب أحداث السودان النيجر مانشستر سيتي الحرب الأوكرانية عام الاستدامة الملف النووي الإيراني مايكروسوفت الذكاء الاصطناعي الذکاء الاصطناعی
إقرأ أيضاً:
كيف أصبحت غزة ساحة لتطوير الاحتلال قدرات الذكاء الاصطناعي وتجريبه؟
كشف تقرير نشرته صحيفة "نيويورك تايمز"، عن مدى توغل التكنولوجيا المتقدمة، وخاصة الذكاء الاصطناعي، في العمليات العسكرية الإسرائيلية خلال حربها المستمرة على قطاع غزة.
وأوضح التقرير الذي ترجمته "عربي21"، أن الاحتلال الإسرائيلي اعتمد بشكل متزايد على أدوات وتقنيات الذكاء الاصطناعي لتحقيق تفوق نوعي في ميدان المعركة، وهو ما أدى في بعض الأحيان إلى نتائج قاتلة طالت المدنيين.
وأشار التقرير إلى أن أبرز مثال على هذا الاستخدام جاء في أواخر عام 2023، عندما حاولت القوات الإسرائيلية اغتيال إبراهيم البياري، أحد القادة البارزين في حركة حماس. ونظراً لصعوبة تحديد مكانه الفعلي، نظراً لاحتمال اختبائه في شبكة الأنفاق المنتشرة تحت غزة، لجأ جيش الاحتلال الإسرائيلي إلى تقنية تحليل صوتي مدعومة بالذكاء الاصطناعي، كانت قد طُورت قبل نحو عقد من الزمن لكنها لم تُستخدم في ساحات القتال من قبل.
وبحسب مصادر أمريكية وإسرائيلية مطلعة تحدثت للصحيفة، فقد تولى مهندسون في الوحدة 8200، المكافئة الإسرائيلية لوكالة الأمن القومي الأمريكية، تطوير الأداة ودمجها بتقنيات ذكاء اصطناعي متقدمة.
وتم تحليل مكالمات البياري، واعتمادا على تلك البيانات الصوتية، قامت قوات الاحتلال الإسرائيلي بشن غارة جوية في 31 تشرين الأول/أكتوبر 2023 استهدفت الموقع المشتبه به. غير أن الغارة، التي فشلت في قتل البياري، أسفرت عن استشهاد 125 مدنيا، بحسب منظمة "إيروورز" المعنية بتوثيق ضحايا الحروب.
ويمثل هذا الهجوم، وفق التقرير، نموذجاً مصغراً لطريقة استخدام إسرائيل لتقنيات الذكاء الاصطناعي في حربها ضد غزة، حيث دمجت هذه التقنيات بمجالات متعددة تشمل التعرف على الوجوه، وتحليل البيانات النصية، وتحديد الأهداف العسكرية المحتملة. وقد أشارت مصادر الصحيفة إلى أن عمليات تطوير هذه الأدوات جرت عبر تعاون وثيق بين ضباط الوحدة 8200 وعدد من جنود الاحتياط العاملين في شركات تكنولوجية كبرى مثل غوغل، مايكروسوفت، وميتا.
وتحدث التقرير عن إنشاء ما يعرف بـ"الاستوديو"، وهو مركز ابتكار تابع للوحدة 8200، يهدف إلى تسريع إنتاج وتطبيق أدوات الذكاء الاصطناعي في العمليات العسكرية. وبيّن أن نشر هذه الترسانة التكنولوجية أدى أحياناً إلى نتائج كارثية، منها أخطاء في تحديد الهوية، واعتقالات عشوائية، بل ووقوع ضحايا مدنيين، وهو ما أثار تساؤلات أخلاقية لدى مسؤولين عسكريين إسرائيليين وأمريكيين على حد سواء.
وفي هذا السياق، قالت هاداس لوربر، المديرة السابقة لمجلس الأمن القومي الإسرائيلي ورئيسة معهد الأبحاث التطبيقية في الذكاء الاصطناعي، إن "وتيرة الابتكار تسارعت تحت وطأة الحاجة الملحة للرد على التهديدات"، مشيرة إلى أن هذه الابتكارات التقنية منحت الجيش الإسرائيلي "مزايا استراتيجية"، لكنها "أثارت أيضاً قضايا أخلاقية جوهرية تتطلب وجود ضوابط صارمة".
ورغم امتناع جيش الاحتلال الإسرائيلي عن التعليق المباشر على هذه التقنيات لأسباب تتعلق بالسرية، إلا أن مصادر التقرير كشفت أن الجيش أطلق تحقيقاً داخلياً في الغارة التي استهدفت البياري. أما شركات التكنولوجيا التي ذُكر أن موظفيها شاركوا في هذه الجهود ضمن صفوف جنود الاحتياط، فقد رفض معظمها التعليق، بينما قالت شركة غوغل إن مشاركة موظفيها "لا علاقة لها بمهامهم داخل الشركة".
ويذكر التقرير أن الاحتلال الإسرائيلي دأب على استغلال الحروب، خاصة في غزة ولبنان، كمنصات لاختبار وتطوير قدراتها التكنولوجية، مثل الطائرات بدون طيار، وأدوات اختراق الهواتف، ونظام الدفاع الصاروخي "القبة الحديدية".
ومنذ 7 تشرين الأول/ أكتوبر، فتح الاحتلال المجال أمام استخدام واسع النطاق لتقنيات الذكاء الاصطناعي بالتعاون مع الوحدات العسكرية المختصة.
كما طوّر جيش الاحتلال الإسرائيلي نموذجاً لغوياً كبيراً باللغة العربية، أنشئ لتشغيل روبوت محادثة قادر على تحليل الرسائل النصية، ومنشورات وسائل التواصل الاجتماعي، وغير ذلك من البيانات. وتم تغذيته بكم هائل من البيانات التي جمعت خلال سنوات من المراقبة الإلكترونية، مما مكنه من تمييز اللهجات المختلفة وتحليل ردود الفعل العامة، كما حدث بعد اغتيال حسن نصر الله في أيلول/سبتمبر الماضي، وفق ما أفاد به ضباط إسرائيليون للصحيفة.
إلا أن النموذج لم يكن خالياً من العيوب، إذ فشل أحياناً في تفسير بعض المصطلحات العامية، أو أخطأ في فهم المحتوى البصري، ما تطلب تدخل ضباط مخضرمين لتصحيح هذه الأخطاء. وعلى الأرض، زودت إسرائيل نقاط التفتيش المؤقتة في غزة بكاميرات مدعومة بتقنيات التعرف على الوجه، لكنها أخفقت أحياناً في التعرف على الأشخاص بدقة، ما تسبب في اعتقال مدنيين عن طريق الخطأ.
ومن بين الأدوات التي أثارت جدلاً أيضاً، خوارزمية "لافندر"، وهي أداة تعلم آلي صممت لتحديد المقاتلين منخفضي الرتب في حماس، لكنها كانت غير دقيقة، ومع ذلك استخدمت لتحديد أهداف في بداية الحرب.
ويخلص التقرير إلى أن هذه التجارب التقنية، رغم ما توفره من قدرات عسكرية متقدمة، قد تؤدي إلى تسريع وتيرة العنف وسقوط ضحايا من المدنيين، في وقت لم تُحسم فيه بعد الأسئلة الأخلاقية الكبرى المرتبطة باستخدام الذكاء الاصطناعي في ميادين الحروب.