الذكاء الاصطناعي.. تكتشف الدراسات العلمية يوميا الكثير من الاستنتاجات التي تثبت خطورة الذكاء الاصطناعي على البشرية، إذ حذرت دراسةٌ جديدةٌ من إمكانية تدريب نماذج الذكاء الاصطناعي المتقدمة على الكذب على البشر وخداعهم بكل سهولة.

شركة «Anthropic» الناشئة للذكاء الاصطناعي تحذر من أخطاره

ووفقاً لصحيفة «الإندبندنت» البريطانية، فقد اختبر الباحثون في شركة «Anthropic» الناشئة للذكاء الاصطناعي ما إذا كانت روبوتات الدردشة المتطورة مثل «تشات جي بي تي» يمكن أن تتعلم الكذب من أجل خداع الناس.

ووجد الفريق أن هذه الروبوتات لا تستطيع تعلم الكذب فحسب، بل من المستحيل إعادة تدريبها بعد ذلك على قول الحقيقة والمعلومات الصحيحة باستخدام تدابير السلامة الخاصة بالذكاء الاصطناعي المتاحة في الوقت الحالي.

الروبوتات

وحذر الباحثون من وجود «شعور زائف بالأمان» تجاه أنظمة الذكاء الاصطناعي والمعلومات المستمدة منها، كما أشار الفريق إلى خطورة برمجة المحتالين وقراصنة الإنترنت لأنظمة الذكاء الاصطناعي على الكذب وإخفاء الأضرار التي قد تنتج عن عملية شرائية معينة أو عن الدخول إلى موقع ما.

الذكاء الاصطناعي ونشر المعلومات الخاطئة

من ناحية أخرى، أصبحت مسألة سلامة الذكاء الاصطناعي مصدر قلق متزايد لكل من الباحثين والمشرعين في الفترة الأخيرة، ولطالما عبر الباحثون عن خوفهم من تسبب هذه الأنظمة في انتشار المعلومات الخاطئة على نطاق واسع، خصوصاً عبر التزييف العميق، واستخدام أعمال المبدعين دون إسناد، وخسارة هائلة في الوظائف.

وحذَّر تحليلٌ أجراه صندوق النقد الدولي قبل يومين من أن الذكاء الاصطناعي يمكن أن يؤثر على ما يقرب من 40 في المائة من الوظائف ويُفاقم عدم المساواة، وعلاوة على ما سبق تتشابه نتائج تحليل صندوق النقد مع أخرى أصدرها بنك «غولدمان ساكس» عام 2023، الذي قدَّر أن الذكاء الاصطناعي يمكن أن يحلَّ محل ما يعادل 300 مليون وظيفة بدوام كامل، لكنه أشار إلى أن هذه التقنية قد تؤدي إلى طفرة في الإنتاجية، كما تحاول الحكومات في جميع أنحاء العالم إنشاء لوائح تنظيمية، أو قوانين للذكاء الاصطناعي، تعمل على تعزيز السلامة والاستخدام العادل، مع الاستمرار في تشجيع الابتكار.

اقرأ أيضاًوزير الاتصالات يستعرض خطوات مصر للاستفادة من الذكاء الاصطناعي

وزير العدل يختتم مؤتمر الذكاء الاصطناعي التوليدي.. وهذه أبرز التوصيات

الذكاء الاصطناعي يكتشف سيلا من السرقات العلمية «التفاصيل»

المصدر: الأسبوع

كلمات دلالية: أنظمة الذكاء الاصطناعي الذكاء الاصطناعي الروبوتات خطر الذكاء الاصطناعي دراسات علمية سلامة الذكاء الاصطناعي صندوق النقد الدولي قوانين الذكاء الاصطناعي الذکاء الاصطناعی

إقرأ أيضاً:

غوغل تعلن عن نماذجها الجديدة للذكاء الاصطناعي

#سواليف

أعلنت #غوغل عن أحدث نماذجها للذكاء الاصطناعي، التي ستقدم للمستخدمين قدرات مميزة في معالجة البيانات.

ومن بين أبرز نماذج #الذكاء_الاصطناعي الجديدة التي تم الإعلان عنها يأتي Gemma 3، والذي تشير غوغل إلى أنه “واحد من أفضل نماذج الذكاء الاصطناعي في العالم”.

ونوهت غوغل إلى أن نموذج Gemma 3 تفوق على العديد من نماذج الذكاء الاصطناعي المعروفة مثل DeepSeek-V3 وo3-mini، وصمم ليقدم للمستخدمين قدرات مميزة وسرعة في #معالجة_البيانات، والأهم هو أنه غير معقد ويمكن تشغيله على #الحواسب دون الحاجة لمخدمات خاصة.

مقالات ذات صلة (واتساب) سيتيح إضافة روابط حسابات مواقع التواصل للملف الشخصي 2025/03/17

ومن جهتها أعلنت DeepMind التابعة لغوغل عن نموذجين جديدين للذكاء الاصطناعي، هما Gemini Robotics وGemini Robotics-ER، وطورتهما خصيصا للروبوتات.

وأوضحت الشركة أن نموذج Gemini Robotics تم تطويره عن نموذج Gemini 2.0، ويقدم هذا النموذج للروبوتات ميزات “الفهم المتعدد للوسائط المحيط”، أي أنه يساعد الروبوت في التعرف على الأشياء الموجودة في محيطه ليكون أكثر قدرة في تنفيذ المهام.

ونوهت DeepMind أنها تتعاون مع شركة Apptronik لتطوير جيل جديد من الروبوتات الشبيهة بالبشر، إذ ستعمل هذه الروبوتات مع نماذج Gemini 2.0 للذكاء الاصطناعي.

مقالات مشابهة

  • غوغل تعلن عن نماذجها الجديدة للذكاء الاصطناعي
  • دراسة: التبرع بالدم قد يقي من مرض خطير يسبب الموت
  • الذكاء الاصطناعي يكتشف أدوية قد تبطئ أمراض التدهور المعرفي
  • دراسة.. التبرع بالدم يقي من مرض خطير قد يسبب الموت
  • شركة صينية تطلق نموذجين للذكاء الاصطناعي
  • دراسة: المشروبات السكرية قد تزيد من خطر الإصابة بسرطان الفم
  • اكتشاف مذهل .. أداة جديدة تكشف «الأهداف الخفية» للذكاء الاصطناعي
  • فتح باب التسجيل في التحدي الدولي للذكاء الاصطناعي في دبي
  • دراسة: مشروبات شائعة الاستهلاك قد تسبب سرطان الفم القاتل
  • هل يمكن للذكاء الاصطناعي أن يستبدل محرك بحث جوجل؟