دعوات للتحكم بالذكاء الاصطناعي .. مخاوف من «الروبوتات القاتلة»
تاريخ النشر: 30th, April 2024 GMT
دعت النمسا يوم الإثنين إلى بذل جهود جديدة لتنظيم استخدام الذكاء الاصطناعي في أنظمة الأسلحة الذي يمكن أن يؤدي لظهور ما يسمى “الروبوتات القاتلة”، واستضافت مؤتمرا يهدف إلى إحياء المناقشات المتعثرة إلى حد كبير حول هذه القضية.
التغيير ــ وكالات
ومع التقدم السريع في تكنولوجيا الذكاء الاصطناعي، فإن أنظمة الأسلحة التي يمكنها القتل دون تدخل بشري تزداد ظهورا ووضوحا، مما يثير تحديات أخلاقية وقانونية تقول معظم البلدان إنها تحتاج إلى التصدي لها في أقرب وقت ممكن.
وقال وزير الخارجية النمساوي ألكسندر شالنبرج خلال اجتماع شاركت فيه منظمات غير حكومية ودولية فضلا عن مبعوثين من 143 دولة “لا يمكننا أن ندع هذه اللحظة تفوتنا دون اتخاذ إجراء. الآن هو الوقت المناسب للاتفاق على قواعد ومعايير دولية لضمان السيطرة البشرية”.
وأضاف في خطابه الافتتاحي للمؤتمر، بعنوان “الإنسانية على مفترق الطرق: أنظمة الأسلحة المستقلة وتحديات التنظيم”، “علينا أن نضمن على الأقل أن القرارات المصيرية المتعلقة بمن يعيش ومن يموت تبقى في يد البشر وليس الآلات”.
ومرت سنوات من المناقشات في الأمم المتحدة دون تحقيق نتائج ملموسة، وقال كثيرون من المشاركين في المؤتمر الذي استمر يومين في فيينا إن الوقت لاتخاذ إجراءات ينفد بسرعة.
وقالت ميريانا سبولجاريك رئيسة اللجنة الدولية للصليب الأحمر، خلال حلقة نقاشية في المؤتمر “من المهم للغاية أن نتخذ إجراءات على وجه السرعة”.
وأضافت “ما نشهده اليوم في سياقات العنف المختلفة هو إخفاقات أخلاقية أمام المجتمع الدولي. ولا نريد أن نرى مثل هذه الإخفاقات تتفاقم من خلال تحويل مسؤولية العنف والسيطرة عليه إلى الآلات والخوارزميات”.
ويتم استخدام الذكاء الاصطناعي بالفعل في ساحة المعركة، ويقول دبلوماسيون إن الطائرات المسيرة في أوكرانيا مصممة لمواصلة طريقها إلى هدفها حتى عندما يتم قطع الاتصال بينها وبين مشغلها باستخدام تقنيات التشويش.
وقالت الولايات المتحدة هذا الشهر إنها تدرس تقريرا إعلاميا يفيد بأن الجيش الإسرائيلي يستخدم الذكاء الاصطناعي للمساعدة في تحديد أهداف القصف في غزة.
وبحسب جان تالين وهو مطور برمجيات ومستثمر في مجال التكنولوجيا “لقد رأينا بالفعل أن الذكاء الاصطناعي يرتكب أخطاء سواء كبيرة أو صغيرة، بدءا من الإخفاق في التمييز بين كرة القدم ورأس حَكَم أصلع، إلى وفيات المارة على الطرق بسبب السيارات ذاتية القيادة غير القادرة على التعرف على الأشخاص الذين يسيرون خارج الممرات المخصصة لهم”.
وشدد على أنه “يجب أن نكون حذرين للغاية بشأن الاعتماد على دقة هذه الأنظمة، سواء في القطاع العسكري أو المدني”
الوسومالذكاء الإصطناعي روبورتات قاتلة مخاوفالمصدر: صحيفة التغيير السودانية
كلمات دلالية: الذكاء الإصطناعي قاتلة مخاوف
إقرأ أيضاً:
هيسحب الداتا من تليفونك.. تحذير من أجهزة التفتيش بالذكاء الاصطناعي
الداتا بتاعتي اتسحبت واتفاجئت باستخدامها بعد كدة.. أثار فنان شاب حالة من الجدل مؤخرا عقب سرد تجربته مع أجهزة تفتيش الذكاء الاصطناعي.. فما القصة؟
القصة بدأت ببث مباشر للفنان الشاب صبري الدسوقي عبر “تيك توك”، تحدث خلاله عن تجربته في مطار استراليا والذي استحدث خاصية جديدة لتفتيش الهواتف والأجهزة الالكترونية كالتابلت واللابتوب بواسطة الذكاء الاصطناعي.
أجهزة تفتيش الذكاء الاصطناعيتعمل أجهزة تفتيش الذكاء الاصطناعي على فحص الهواتف والأجهزة بدقة وسرعة متناهية بالبحث عن الداتا الموجودة بداخلها وتحليلها لأسباب أمنية واحترازية.
هذا الإجراء الاحترازي ليس مطبق على الجميع بل يتم تطبيقه على جنسيات معينة من الأجانب من ضمنها العرب والمهاجرين الجدد الذين لم يسبق له زيارة استراليا، بحسب صبري الدسوقي.
ويرجع السبب وراء هذه الآلية إلى أسباب أمنية في المقام الأول، خاصة بعد الاختراقات التي تشهدها بعض الهواتف، كما حدث في واقعة اختراق وتفخيخ هواتف البيجر، التي أثارت جدلا واسعا قبل أشهر.
جدير بالذكر أن واقعة تفجير أجهزة البيجر واللاسلكي في سبتمبر الماضي، تسببت في قتل وأصيب الآلاف من عناصر حزب الله والمدنيين والعاملين بمؤسسات مختلفة في لبنان وسوريا.
سحب الداتا من الهواتف والأجهزةلم يقتصر الأمر على التفتيش فقط، حيث فجر الفنان الشاب، مفاجأة بإعلانه عن قيام أجهزة التفتيش الخاصة بالذكاء الاصطناعي بسحب الداتا والصور من الهواتف والأجهزة واستخدامها بعد في النماذج الخاصة بالذكاء الاصطناعي.
وحذر صبري الدسوقي، من استخدام هذه الأجهزة حفاظا على الأمن والخصوصية، خاصة في ظل توسع نماذج الذكاء الاصطناعي المختلفة والتحذير المستمر من خطورتها.
جدير بالذكر أن الشرطة الأسترالية، تعمل الآن على مجموعة بيانات بحجم 10 بيتابايت (10240 تيرابايت)، ويمكن أن يشتمل الهاتف الفردي الذي تم ضبطه على 1 تيرابايت من البيانات.
الشرطة الاسترالية في مرمى النيرانوواجهت الشرطة الأسترالية انتقادات بسبب استخدامها لهذه التكنولوجيا، وأبرزها عندما استخدم ضباطها Clearview AI، وهي خدمة التعرف على الوجه التي تعتمد على الصور المأخوذة من الإنترنت.
وقال مدير استراتيجية التكنولوجيا والبيانات في وكالة حماية البيئة الأسترالية، بنيامين لامونت إن "وكالة الصحافة الفرنسية لم تكن دائما على حق".
وأضاف: "لقد اضطررنا إلى تعزيز عملياتنا داخليًا وأعتقد أن هذا كان أمرًا بالغ الأهمية، لأنه ليس مجرد ضبط ونسيان.. مع تطور التكنولوجيا وتطور العمليات.. يتعين علينا أن ننظر باستمرار إلى كيفية التأكد من أنها أخلاقية ومسؤولة، ولهذا السبب أنشأنا لجنة تكنولوجيا مسؤولة داخل المنظمة لتقييم التكنولوجيا الناشئة".