الذكاء الاصطناعي في خدمة الإرهاب.. والتكنولوجيا تقتل الإنسان.. الاغتيال عن بعد باستخدام الروبوت وبدون ملاحقة قضائية
تاريخ النشر: 21st, April 2024 GMT
تابع أحدث الأخبار عبر تطبيق
أثار التقدم السريع في مجال الذكاء الاصطناعي artificial intelligence (AI) مخاوف بشأن احتمال إساءة استخدام هذه التكنولوجيا من قبل التنظيمات الإرهابية، بعد أن أصبحت سلاحًا ذا حدين، في ظل كثرة أدواتها وإمكانية امتلاكها وسهولة استخدامها وسرعة انتشارها وقوة تأثيرها، مما زاد الطلب على استخدامها من قبل المتطرفين، الأمر الذي يشكل خطورة على مستقبل الظاهرة الإرهابية القابلة للتوسع، وانتشار الإرهاب السيبراني.
على الرغم من أن طيور الظلام مثل داعش والقاعدة وغيرهما من التنظيمات الإرهابية، يعيشون في كهوفهم الفكرية، إلا أنهم ليسوا بمنأى عن التقدم التكنولوجي الهائل الذي يتطور كل لحظة، ويسعون بشكل مستمر لتطوير قدراتهم، واستكشاف كل ما هو جديد ويخدم أهدافهم الأساسية، مثل تقنيات الذكاء الاصطناعي التي تمكنهم من تعزيز قدراتهم التشغيلية.
التعرف على الوجوه
يقول جون ديفيس، أستاذ القانون في جامعة هارفارد، في دراسة له بعنوان: "الخصوصية والأمن في عصر التعرف على الوجوه"، أن خاصية التعرف على الوجوه أحد أهم الخصائص التي كشف عنها الذكاء الاصطناعي، فمن خلال عدسة كاميرا يمكن التعرف على هوية شخص من صورة وجهه، وهو ما يمكن الإرهابيين من تتبع شخص بعينة واستهدافه حتى ولو كان بين آخرين، بحيث يتم توجيه الضربة له واغتياله بشكل دقيق.
وأشار إلى أن تحليل بيانات التعرف على الوجوه تساعد الإرهابيين على التنبؤ بالأماكن التي قد يتواجد بها الأفراد المستهدفون في المستقبل، بالإضافة لاستخدام التحليلات التنبؤية لتحديد أنماط السلوك والتنبؤ بأنشطة هؤلاء الأفراد المحتملة، والتنبؤ بالأنماط الأمنية ونقاط الضعف، مما يمكن التنظيمات من التخطيط الجيد لعمليات إرهابية محددة.
الأسلحة المستقلة
تسلط دراسة أجراها مركز الدراسات الاستراتيجية والدولية (CSIS) الضوء على كيفية استخدام الإرهابيين لأنظمة الأسلحة المستقلة، التي تستطيع اختيار وملاحقة الأهداف واستخدام القوة بدون تدخل بشري مباشر؛ بالاعتماد على الذكاء الاصطناعي والروبوتات لتنفيذ المهام العسكرية، مؤكدة أن هذه الأنظمة لديها القدرة على اتخاذ القرارات بشكل مستقل دون تحكم بشري مباشر، وهو ما يتعلق بقدر الآلة على التعلم والتصرف كإنسان.
وأشارت الدراسة إلى أن تقنيات الذكاء الاصطناعي تحقق أهدافًا استراتيجيةً للإرهابيين، فمن ناحية تنفذ العمليات المخططة بدقة عالية تفوق البشر، وسرعة في التنفيذ مع قلة احتمالية الخطأ، والهروب من الملاحقة القانونية، وحماية عناصر التنظيم من الموت والقبض عليهم، كما أن أنظمة الأسلحة المستقلة التي تعمل بالذكاء الاصطناعي يمكنها العمل في بيئات معقدة وديناميكية، قد لا يتحمها البشر العاديون.
إلى جانب ما سبق يمكن للإرهابيين إساءة استخدام أنظمة الأسلحة المستقلة للسيطرة على الأنظمة من خلال الهجمات السيبرانية لمهاجمة أهدافهم الخاصة، والتسبب في خسائر غير مقصودة في صفوف المدنيين، تسلط هذه التهديدات الضوء على الحاجة إلى لوائح دولية صارمة وتدابير أمنية وضوابط لاستخدام أنظمة الأسلحة المستقلة لمنع وقوعها سوء الاستخدام من قبل الإرهابيين.
التجنيد
يساعد الذكاء الاصطناعي التنظيمات الإرهابية على التجنيد عن بعد، حيث أكدت دراسة أجرتها وكالة الاتحاد الأوروبي للتعاون في مجال إنفاذ القانون (يوروبول) أن المنظمات المتطرفة تستخدم بشكل متزايد خوارزميات وسائل التواصل الاجتماعي المدعومة بالذكاء الاصطناعي لتحديد واستهداف الأفراد الضعفاء، وتصميم رسائلهم ومحتواها لتحقيق أقصى قدر من تأثير دعايتها.
وأكدت الدراسة أنه من خلال الاستفادة من التحليلات التنبؤية ومعالجة اللغة الطبيعية، يمكن لهذه المجموعات تخصيص تواصلها بشكل أكثر فعالية مع المظالم المحددة ونقاط الضعف النفسية للمجندين المحتملين.
بالإضافة لاستخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي والمساعدين الافتراضيين "chatboot"، لإجراء المحادثات والتفاعلات الفردية، وبناء الثقة والعلاقة مع الأفراد من أجل السيطرة عليهم وتجنيدهم تدريجيًا، وتتميز هذه الأنظمة بالردود الآلية المتاحة على مدار الساعة طوال أيام الأسبوع، ما يعني أن جهود تجنيد المتطرفين المحتملين إلكترونيًا ستتزايد؛ لتعوض الفقد الكبير لعناصر التنظيمات الإرهابية التي تتم خلال المواجهات العسكرية مع أجهزة الأمن في مختلف مناطق الصراعات، حسبما يؤكد تقرير معهد الأمم المتحدة الأقليمي لبحوث الجريمة والعدالة (UNICRI) علم 2019.
التزييف العميق
لا يخفى على أحد لجوء التنظيمات الإرهابية لاستخدام تقنية التزييف العميق الناتجة عن الذكاء الاصطناعي لإنشاء مواد دعائية (مصورة) ذات مظهر واقعي وأدلة مزورة، مما يزيد من تعقيد الجهود المبذولة لمواجهة هذه الدعايات المزيفة، التي يشكل انتشارها إلى جانب التطور المتزايد لأنظمة الذكاء الاصطناعي الأخرى، تحديًا كبيرًا للحكومات وشركات التكنولوجيا في اكتشاف وتخفيف انتشار المعلومات المضللة.
المصدر: البوابة نيوز
كلمات دلالية: الذكاء الاصطناعي الذكاء الاصطناعي AI الارهاب التكنولوجيا الذكاء مصطفى حمزة التنظیمات الإرهابیة الذکاء الاصطناعی التعرف على
إقرأ أيضاً:
لطافتك تكلف الذكاء الاصطناعي الملايين!
في زمن تتسارع فيه علاقتنا بالتكنولوجيا، يبدو أن كلمات بسيطة مثل "من فضلك" و"شكرًا" قد تحمل ثمنًا غير متوقع. فقد أثار أحد مستخدمي منصة X سؤالًا طريفًا لكنه عميق الدلالة، قال فيه:
كم أنفقت OpenAI على الكهرباء لأن الناس يقولون "من فضلك" و"شكرًا" لنماذج الذكاء الاصطناعي؟
وجاء الرد سريعًا من سام ألتمان، الرئيس التنفيذي لشركة OpenAI، مازحًا وبكل ثقة: "تلك الملايين كانت مُنفقة في مكانها الصحيح.. من يدري ما ستجلبه اللباقة!".
لكن خلف هذا التعليق، انطلقت تساؤلات جدّية: هل نُهدر الطاقة والموارد حين نخاطب الذكاء الاصطناعي بأدب؟ أم أن للّباقة مع الآلات قيمة تتجاوز الكلفة؟.
المجاملة ليست مجرد تكلفة… بل أسلوب تعامل
تشير تقديرات الخبراء إلى أن كل تفاعل مع روبوت دردشة يكلف الشركة مالًا وطاقة، وكل كلمة إضافية تُرسل كجزء من الطلب تستهلك المزيد من الموارد.
قال البروفيسور نيل جونسون من جامعة جورج واشنطن:"كل طلب موجه إلى روبوت مثل ChatGPT يتطلب حركة إلكترونات، وهذه الحركة تحتاج طاقة. والسؤال هو: من يدفع هذه الفاتورة؟".
ويشبّه جونسون الكلمات الإضافية بورق التغليف المستخدم لتغليف عطر، إذ تحتاج النماذج اللغوية إلى "اختراق" هذا التغليف للوصول إلى مضمون الطلب، مما يشكل عبئًا إضافيًا.
اقرأ أيضاً.. أول طالب ذكاء اصطناعي في مقاعد الدراسة الجامعية
لكن رغم هذا، يرى كثيرون أن اللطافة مع الذكاء الاصطناعي ليست فقط عادة بشرية أو مظهرًا من مظاهر "إضفاء الطابع الإنساني" على الآلة، بل إن لها تأثيرًا مباشرًا على جودة التفاعل.
وأوضح كيرتيس بيفرز، مدير في فريق تصميم Microsoft Copilot، أن استخدام اللغة المهذبة يضبط نبرة الرد من قبل النموذج، فعندما يلتقط الذكاء الاصطناعي إشارات اللباقة، يكون أكثر ميلًا للرد بنفس الأسلوب.
هل المجاملة ضرورة ثقافية؟
حتى وإن لم تكن الآلة "تشعر"، فإن طريقة تعامل البشر معها قد تُشكّل انعكاسًا لطريقة تعاملهم مع بعضهم البعض لاحقًا.
وأشارت شيري توركل، أستاذة في معهد MIT، أن الذكاء الاصطناعي ليس "واعيًا" فعلًا، لكنه لا يزال "حيًا" ليبرّر إظهار المجاملة له.
وتشير إلى تجربة "تماغوتشي" في التسعينيات، حيث أصيب الأطفال بالحزن الحقيقي عند "وفاة" حيواناتهم الرقمية، مما يُظهر كيف يمكن للعلاقات بين البشر والكائنات غير الحية أن تؤثر نفسيًا.
اقرأ أيضاً.. حين يرى الذكاء الاصطناعي ما لا يراه الطبيب.. قفزة في تشخيص قصر النظر
اللباقة بدافع الخوف
أجريت دراسة في ديسمبر 2024 من قبل شركة Future أظهرت أن نسبة كبيرة من المستخدمين يتعاملون بلباقة مع الذكاء الاصطناعي:
67% من المستخدمين في الولايات المتحدة يستخدمون عبارات مجاملة،و71% من المستخدمين في المملكة المتحدة يفعلون الشيء ذاته.
لكن المفارقة أن 12% من المستخدمين يتحلون باللباقة بدافع الخوف من "العواقب المستقبلية" لسوء التعامل مع التكنولوجيا.
المجاملة... تكلفة مستحقة؟
بين التكاليف الكهربائية والبيئية، وبين الأبعاد الثقافية والإنسانية، يبدو أن المجاملة في التفاعل مع الذكاء الاصطناعي ليست مجرد تصرف عابر. بل إنها تحمل وزنًا أخلاقيًا وسلوكيًا، وقد تشكّل مستقبل العلاقة بين الإنسان والآلة.
إسلام العبادي(أبوظبي)