أعلنت شركة ميتا أنها ستسمح للحكومة الأمريكية ووكالاتها والشركات المتعاقدة معها في مجال الأمن القومي باستخدام نماذج الذكاء الاصطناعي الخاصة بها لأغراض عسكرية، وذلك في تغيير لسياستها التي كانت تمنع استخدام تقنياتها لهذه الأغراض.

وأوضحت ميتا أن نماذج الذكاء الاصطناعي الخاصة بها، التي تطلق عليها اسم “لاما Llama”، ستكون متاحة للوكالات الفيدرالية، بالإضافة إلى شركات أخرى متعاقدة في مجال الدفاع، مثل “لوكهيد مارتن” و”بوز آلن”، وشركات تكنولوجيا دفاعية مثل “بالانتير” و”أندريل”.

وتُعد هذه النماذج “مفتوحة المصدر”، مما يعني إمكانية نسخها وتوزيعها بحرية من مطورين آخرين أو شركات أو حكومات.

ويمثل هذا التحول استثناءً من سياسة “الاستخدام المقبول” لدى ميتا، التي كانت تمنع استخدام برامجها في الأغراض العسكرية والحربية والصناعات النووية.

وقال نيك كليغ، رئيس الشؤون العالمية في ميتا، إن الشركة تدعم الآن “الاستخدامات المسؤولة والأخلاقية لنماذج الشركة لدعم الولايات المتحدة والقيم الديمقراطية في السباق العالمي نحو التفوق في الذكاء الاصطناعي”، على حد تعبيره.

وأشار كليغ إلى أن “ميتا تريد المساهمة في تعزيز الأمن والازدهار الاقتصادي للولايات المتحدة وأقرب حلفائها”، مؤكدًا أن “الانتشار الواسع لنماذج الذكاء الاصطناعي الأمريكية المفتوحة المصدر يخدم المصالح الاقتصادية والأمنية”.

وأعربت الشركة عن إمكانية استخدام الحكومة الأمريكية تقنياتها لتعقب الأنشطة الإرهابية وتحسين الأمن السيبراني، مؤكدةً أن استخدام نماذج الذكاء الاصطناعي الخاصة بها سيُسهم في إبقاء الولايات المتحدة في الطليعة التقنية عالميًا، ويدعم مصالحها الإستراتيجية والجيوسياسية.

وأوضح متحدث باسم ميتا أن الشركة ستشارك تقنياتها مع الدول الحلفاء للولايات المتحدة، مثل كندا وبريطانيا وأستراليا ونيوزيلندا.

ومن المتوقع أن يواجه هذا التحول في سياسة ميتا انتقادات واسعة، إذ أثار توظيف التكنولوجيا لغايات عسكرية جدلًا في كبرى الشركات التقنية في السنوات الأخيرة، وبرزت احتجاجات لموظفي شركات، مثل مايكروسوفت وجوجل وأمازون، على صفقات أُبرمت مع جهات عسكرية، ومنها مشروع نيمبوس ذو السمعة السيئة الذي يربط شركتي جوجل وأمازون بالحكومة الإسرائيلية.

ويأتي هذا التطور بعد أن أفادت وكالات أنباء بأن بعض المؤسسات البارزة المرتبطة بالجيش الصيني قد طوّرت أدوات ذكاء اصطناعي لأغراض عسكرية محتملة، معتمدةً على نماذج ميتا المفتوحة المصدر

المصدر: مأرب برس

إقرأ أيضاً:

هل تقضي روبوتات الذكاء الاصطناعي على الصدق في تطبيقات المواعدة؟

تشهد تطبيقات المواعدة تحولًا كبيرًا مع بدء دمج روبوتات الذكاء الاصطناعي لمساعدة المستخدمين في صياغة الرسائل، اختيار الصور، وكتابة الملفات الشخصية، مما يثير مخاوف بشأن تآكل المصداقية في التفاعلات عبر الإنترنت.

الذكاء الاصطناعي يدخل عالم المواعدة

أعلنت Match Group، الشركة المالكة لمنصات مثل Tinder وHinge، عن زيادة استثماراتها في تقنيات الذكاء الاصطناعي، حيث ستطلق ميزات جديدة هذا الشهر لمساعدة المستخدمين في تحسين ظهورهم على التطبيق، وصياغة رسائل جذابة، وتقديم نصائح حول كيفية التفاعل مع الآخرين.

لكن هذه الخطوة أثارت جدلًا واسعًا، إذ يرى خبراء أن الاعتماد المفرط على الذكاء الاصطناعي في بناء العلاقات العاطفية قد يزيد من مشكلات العزلة الاجتماعية، ويفقد المستخدمين مهارات التواصل الفعلية عند اللقاءات الحقيقية بعيدًا عن شاشاتهم.

مخاوف بشأن المصداقية والانعزال الاجتماعي

أحد أبرز التحديات التي تطرحها هذه التقنية هو صعوبة التمييز بين المستخدمين الحقيقيين وأولئك الذين يعتمدون على الذكاء الاصطناعي في تفاعلاتهم.

فيما قاد  د. لوك برانينج، محاضر في الأخلاقيات التطبيقية بجامعة ليدز، حملة تطالب بتنظيم هذه الميزة، مشيرًا إلى أن "استخدام التكنولوجيا لحل مشكلات اجتماعية سببها التكنولوجيا قد يؤدي إلى تفاقم الأوضاع، وليس إصلاحها".

وأعرب عشرات الأكاديميين من بريطانيا، الولايات المتحدة، كندا وأوروبا عن قلقهم من أن التوسع السريع في ميزات الذكاء الاصطناعي على تطبيقات المواعدة قد يؤدي إلى تفاقم أزمة الصحة العقلية والعزلة، إلى جانب تعزيز التحيزات العنصرية والجندرية الموجودة في الخوارزميات، مما يزيد من التحديات التي تواجه المستخدمين."

التحديات والفرص: هل الذكاء الاصطناعي حل أم مشكلة؟

يرى مؤيدو هذه التقنيات أنها قد تساعد في تخفيف الإرهاق الناتج عن التفاعل المطول مع التطبيقات، حيث يمكن للمستخدمين الاستفادة من "مساعدي المواعدة الافتراضيين" لصياغة رسائل فعالة دون الحاجة لقضاء ساعات في البحث عن العبارات المناسبة.

أحد الأمثلة البارزة هو ألكسندر جادان، مدير منتج، الذي قام ببرمجة روبوت ذكاء اصطناعي باستخدام ChatGPT للتواصل مع أكثر من 5000 امرأة على Tinder، ما أدى في النهاية إلى العثور على شريكته الحالية.

هل يجب فرض رقابة على الذكاء الاصطناعي في المواعدة؟

يرى برانينغ أن تطبيقات المواعدة يجب أن تخضع لرقابة مماثلة لتلك المفروضة على منصات التواصل الاجتماعي، قائلًا: "تستهدف تطبيقات المواعدة مشاعرنا الأكثر حميمية ورغباتنا العاطفية، لذا يجب أن تكون قيد رقابة تنظيمية أكثر صرامة."

من جهتها، أكدت Match Group أن استخدام الذكاء الاصطناعي سيتم بطريقة "أخلاقية ومسؤولة مع مراعاة سلامة المستخدمين وثقتهم".

 بينما قالت Bumble إنها ترى أن الذكاء الاصطناعي يمكن أن "يعزز الأمان ويحسن التجربة، دون أن يحل محل التواصل البشري."

الخلاصة: إلى أين تتجه المواعدة الرقمية؟

مع وجود أكثر من 60.5 مليون مستخدم لتطبيقات المواعدة في الولايات المتحدة وحدها، و4.9 مليون مستخدم في المملكة المتحدة، بات السؤال الأهم هو: هل يؤدي دمج الذكاء الاصطناعي في هذه المنصات إلى تسهيل بناء العلاقات، أم أنه سيؤدي إلى فقدان الثقة والارتباط العاطفي الحقيقي؟

بينما يرى البعض أن الذكاء الاصطناعي قد يساعد في تخفيف ضغوط المواعدة، فإن آخرين يحذرون من أنه قد يحول العلاقات العاطفية إلى تجربة غير واقعية، حيث يتحدث الجميع بنفس الأسلوب، ويصبح الصدق والتلقائية عملة نادرة في عالم المواعدة الرقمية.

مقالات مشابهة

  • «السبكي» يبحث مع شركة صينية سبل استخدام الذكاء الاصطناعي ونقل خبرات التجهيزات الطبية للمستشفيات
  • أول رد من سيلين ديون بعد وقوعها ضحية الذكاء الاصطناعي
  • المهرة.. ضبط أجهزة اتصالات لاسلكية ممنوعة تستخدم لأهداف عسكرية
  • «الإمارات الصحية» تعزّز مراكز فحص الإقامة بتقنيات الذكاء الاصطناعي
  • من النص إلى الصوت.. ميتا تعتزم إطلاق مساعد صوتي يستند للذكاء الاصطناعي
  • النمسا تحظر استخدام الهواتف في المدارس
  • المعركة القادمة من أجل الذكاء الاصطناعي
  • ذكاء Apple المتعثر.. هل فقدت الشركة سباق الذكاء الاصطناعي؟
  • هل تقضي روبوتات الذكاء الاصطناعي على الصدق في تطبيقات المواعدة؟
  • OpenAI تستعد لإطلاق وكلاء الذكاء الاصطناعي باشتراك 20 ألف دولار شهريا