قالت مسؤولة دفاعية إن الولايات المتحدة استخدمت الذكاء الاصطناعي للمساعدة في العثور على أهداف للغارات الجوية في الشرق الأوسط خلال شهر فبراير، مما يكشف عن الاستخدام العسكري المتزايد لهذه التكنولوجيا في القتال، وفقا لوكالة "بلومبرغ".

وساعدت خوارزميات التعلم الآلي التي يمكنها تعليم نفسها كيفية التعرف على الأشياء في تحديد أكثر من 85 هدفا للغارات الجوية الأميركية في 2 فبراير، وفقا لشويلر مور، كبيرة مسؤولي التكنولوجيا في القيادة المركزية الأميركية (سنتكوم)، التي تدير العمليات العسكرية الأميركية في الشرق الأوسط.

وقال البنتاغون إن تلك الضربات نفذتها قاذفات أميركية وطائرات مقاتلة ضد سبع منشآت في العراق وسوريا.

وقالت مور في مقابلة مع بلومبرغ: "كنا نستخدم الذكاء الاصطناعي لتحديد الأماكن التي قد تكون هناك تهديدات فيها. ولقد أتيحت لنا بالتأكيد المزيد من الفرص للاستهداف في آخر 60 إلى 90 يوما"، مضيفة أن الولايات المتحدة تبحث حاليا عن "عدد هائل" من منصات إطلاق الصواريخ لدى القوات المعادية في المنطقة.

وقد اعترف الجيش سابقا باستخدام الخوارزميات الحاسوبية لأغراض استخباراتية. لكن تعليقات مور تمثل أقوى تأكيد معروف على أن الجيش الأميركي يستخدم التكنولوجيا لتحديد أهداف العدو التي أصيبت لاحقا بنيران الأسلحة.

وكانت الضربات الأميركية، التي قال البنتاغون إنها دمرت صواريخ وقذائف ومخازن للطائرات بدون طيار ومراكز عمليات للميليشيات من بين أهداف أخرى، جزءا من رد إدارة الرئيس الأميركي، جو بايدن، على مقتل ثلاثة من أفراد الجيش الأميركي في هجوم يوم 28 يناير على قاعدة في الأردن. وأرجعت الولايات المتحدة الهجوم إلى الميليشيات المدعومة من إيران.

وقالت مور إن أنظمة الذكاء الاصطناعي ساعدت أيضًا في تحديد منصات إطلاق الصواريخ في اليمن والسفن في البحر الأحمر، والتي قالت سنتكوم إنها دمرت العديد منها في ضربات صاروخية متعددة خلال شهر فبراير.

وأوضحت أن القوات الأميركية في الشرق الأوسط جربت خوارزميات الرؤية الحاسوبية التي يمكنها تحديد الأهداف من الصور التي التقطتها الأقمار الصناعية ومصادر البيانات الأخرى، وجربتها في التدريبات خلال العام الماضي.

وأكدت أنه يتم التحقق البشري باستمرار من توصيات استهداف الذكاء الاصطناعي. وقالت إن المشغلين الأميركيين يأخذون على محمل الجد مسؤولياتهم ومخاطر احتمال ارتكاب الذكاء الاصطناعي للأخطاء.

وقالت: "لا توجد أبدا خوارزمية تعمل فقط، وتوصل إلى نتيجة ثم تنتقل إلى الخطوة التالية". "كل خطوة تتضمن الذكاء الاصطناعي تتطلب مراقبة بشرية في النهاية".

المصدر: الحرة

كلمات دلالية: الذکاء الاصطناعی

إقرأ أيضاً:

لطافتك تكلف الذكاء الاصطناعي الملايين!

في زمن تتسارع فيه علاقتنا بالتكنولوجيا، يبدو أن كلمات بسيطة مثل "من فضلك" و"شكرًا" قد تحمل ثمنًا غير متوقع. فقد أثار أحد مستخدمي منصة X  سؤالًا طريفًا لكنه عميق الدلالة، قال فيه:

كم أنفقت OpenAI على الكهرباء لأن الناس يقولون "من فضلك" و"شكرًا" لنماذج الذكاء الاصطناعي؟

وجاء الرد سريعًا من سام ألتمان، الرئيس التنفيذي لشركة OpenAI، مازحًا وبكل ثقة: "تلك الملايين كانت مُنفقة في مكانها الصحيح.. من يدري ما ستجلبه اللباقة!".

 

 

لكن خلف هذا التعليق، انطلقت تساؤلات جدّية: هل نُهدر الطاقة والموارد حين نخاطب الذكاء الاصطناعي بأدب؟ أم أن للّباقة مع الآلات قيمة تتجاوز الكلفة؟.



المجاملة ليست مجرد تكلفة… بل أسلوب تعامل



تشير تقديرات الخبراء إلى أن كل تفاعل مع روبوت دردشة يكلف الشركة مالًا وطاقة، وكل كلمة إضافية تُرسل كجزء من الطلب تستهلك المزيد من الموارد.

قال البروفيسور نيل جونسون من جامعة جورج واشنطن:"كل طلب موجه إلى روبوت مثل ChatGPT يتطلب حركة إلكترونات، وهذه الحركة تحتاج طاقة. والسؤال هو: من يدفع هذه الفاتورة؟".
ويشبّه جونسون الكلمات الإضافية بورق التغليف المستخدم لتغليف عطر، إذ تحتاج النماذج اللغوية إلى "اختراق" هذا التغليف للوصول إلى مضمون الطلب، مما يشكل عبئًا إضافيًا.

 

اقرأ أيضاً.. أول طالب ذكاء اصطناعي في مقاعد الدراسة الجامعية


لكن رغم هذا، يرى كثيرون أن اللطافة مع الذكاء الاصطناعي ليست فقط عادة بشرية أو مظهرًا من مظاهر "إضفاء الطابع الإنساني" على الآلة، بل إن لها تأثيرًا مباشرًا على جودة التفاعل.

أخبار ذات صلة الذكاء الاصطناعي يربك نقابة المحامين في كاليفورنيا حاسوب حراري جديد يفتح آفاقًا ثورية لتسريع الذكاء الاصطناعي

وأوضح كيرتيس بيفرز، مدير في فريق تصميم Microsoft Copilot، أن استخدام اللغة المهذبة يضبط نبرة الرد من قبل النموذج، فعندما يلتقط الذكاء الاصطناعي إشارات اللباقة، يكون أكثر ميلًا للرد بنفس الأسلوب.



هل المجاملة ضرورة ثقافية؟

حتى وإن لم تكن الآلة "تشعر"، فإن طريقة تعامل البشر معها قد تُشكّل انعكاسًا لطريقة تعاملهم مع بعضهم البعض لاحقًا.

 

وأشارت شيري توركل، أستاذة في معهد MIT، أن الذكاء الاصطناعي ليس "واعيًا" فعلًا، لكنه لا يزال "حيًا" ليبرّر إظهار المجاملة له.


وتشير إلى تجربة "تماغوتشي" في التسعينيات، حيث أصيب الأطفال بالحزن الحقيقي عند "وفاة" حيواناتهم الرقمية، مما يُظهر كيف يمكن للعلاقات بين البشر والكائنات غير الحية أن تؤثر نفسيًا.

 



اقرأ أيضاً.. حين يرى الذكاء الاصطناعي ما لا يراه الطبيب.. قفزة في تشخيص قصر النظر


اللباقة بدافع الخوف

أجريت دراسة في ديسمبر 2024 من قبل شركة Future أظهرت أن نسبة كبيرة من المستخدمين يتعاملون بلباقة مع الذكاء الاصطناعي:

67% من المستخدمين في الولايات المتحدة يستخدمون عبارات مجاملة،و71% من المستخدمين في المملكة المتحدة يفعلون الشيء ذاته.

لكن المفارقة أن 12% من المستخدمين يتحلون باللباقة بدافع الخوف من "العواقب المستقبلية" لسوء التعامل مع التكنولوجيا.



المجاملة... تكلفة مستحقة؟

بين التكاليف الكهربائية والبيئية، وبين الأبعاد الثقافية والإنسانية، يبدو أن المجاملة في التفاعل مع الذكاء الاصطناعي ليست مجرد تصرف عابر. بل إنها تحمل وزنًا أخلاقيًا وسلوكيًا، وقد تشكّل مستقبل العلاقة بين الإنسان والآلة.


إسلام العبادي(أبوظبي)

 

مقالات مشابهة

  • هاخد حقي.. فتاة مطعم مدينة نصر ضحية الصفع من زميلها تكشف تفاصيل جديدة
  • «جراحة المفاصل في دبي» يوصي بتدريب الأطباء على الذكاء الاصطناعي
  • كيف خسرت آبل عرش الذكاء الاصطناعي لصالح ميتا؟
  • عسكرة الذكاء الاصطناعي .. كيف تتحول التكنولوجيا إلى أداة قتل عمياء؟
  • أنصار الله الحوثيون يعلنون مقتل شخصين في ضربات أميركية على صنعاء  
  • السودان: المُسيّرات التي استهدفت عطبرة حديثة وفّرتها للمليشيا راعيتها الإقليمية
  • الرئيس الصيني: الذكاء الاصطناعي سيغير أسلوب الحياة البشرية بشكل جذري
  • إدارة بايرن ميونخ تكشف حقيقة تحديد قائمة الراحلين
  • لطافتك تكلف الذكاء الاصطناعي الملايين!
  • مؤتمر بإسطنبول يصدر توصيات حول الذكاء الاصطناعي