حذّر باحثون من أن الذكاء الاصطناعي بات قادرا على خداع البشر، مؤكدين أن الآتي ربما سيكون أعظم.
ويخشى البعض من أن ينقلب الذكاء الاصطناعي على الإنسان مستقبلاً، لكنّ هذه المخاوف باتت واقعاً منذ الآن، وفقاً لدراسة جديدة، إذ إن البرامج التي صُمِّمَت لتكون صادقة، باتت لديها قدرة مثيرة للقلق على خداع البشر.
وأعرب معدو دراسة، وهم من معهد ماساتشوستس للتكنولوجيا، عن قلقهم من مخاطر رؤية الذكاء الاصطناعي في يوم من الأيام يرتكب عمليات احتيال أو تزوير في الانتخابات.


وأشاروا إلى أنه في أسوأ السيناريوهات، يمكن تخيل ذكاء اصطناعي فائق يسعى للسيطرة على المجتمع، ما يؤدي إلى إزالة البشر من السلطة، أو حتى التسبب في انقراض البشرية.
وبيّنت الدراسة، التي أجراها فريق باحثين ونشرت نتائجها مجلة "باترنز"، أن برامج من هذا النوع باتت قادرة على استغلال البشر في ألعاب إلكترونية أو التحايل على برمجيات مصممة في الأساس للتحقق من أن المستخدم إنسان وليس آلة أو روبوتا.
رغم أن هذه الأمثلة قد تبدو تافهة، إلا أنها تكشف عن مشكلات قد تكون لها قريباً عواقب وخيمة في العالم الحقيقي، كما يحذر بيتر بارك، الباحث في معهد ماساتشوستس للتكنولوجيا، المتخصص في الذكاء الاصطناعي.
وقال بارك إن "هذه القدرات الخطرة لا تُكتشف إلا بعد وقوعها".
وأوضح أنه على عكس البرامج التقليدية، فإن برامج الذكاء الاصطناعي القائمة على التعلم العميق ليست مشفرة بل يتم تطويرها من خلال عملية مشابهة لتربية النباتات، حيث أن السلوك الذي يبدو قابلاً للتنبؤ ويمكن التحكم فيه يمكن أن يصبح سريعاً غير قابل للتنبؤ في الطبيعة.
- "مخادع" مثل البشر
فحص باحثون من معهد ماساتشوستس للتكنولوجيا ("ام اي تي") برنامج ذكاء اصطناعي قادر، من خلال الجمع بين خوارزميات للتعرف على اللغة الطبيعية وأخرى للاستراتيجية، على التغلب على البشر في اللعبة اللوحية Diplomacy ("دبلوماسي"). وقد حظي هذا الأداء بثناء الشركة الأم وتم تفصيله في مقال نُشر عام 2022 في مجلة "ساينس".
كان بيتر بارك يشكك في ظروف فوز هذا البرنامج، التي أكدت الشركة المطورة له أن البرنامج كان "صادقاً ومفيداً في الأساس"، وغير قادر على الغش أو الخداع.
ولكن من خلال البحث في بيانات النظام، اكتشف باحثو معهد ماساتشوستس للتكنولوجيا حقيقة أخرى.
على سبيل المثال، من خلال لعب دور فرنسا، خدع البرنامج إنكلترا (التي تولى دورها لاعب بشري)، ودفعها إلى التآمر مع ألمانيا (التي لعب دورها إنسان آخر) للغزو. وعلى وجه التحديد، وعد البرنامج إنكلترا بالحماية، ثمّ أسرّ لألمانيا بأن الأخيرة مستعدة للهجوم، مستغلاً الثقة التي اكتسبها من إنكلترا.
وفي تصريح صحفي، لم تنف الشركة المطورة للبرنامج المزاعم المتعلقة بقدرته على الخداع، لكنها قالت إنه "مشروع بحثي محض"، مع برنامج "مصمم فقط للعب لعبة Diplomacy".
وأضافت الشركة أنها لا تنوي استخدام الخلاصات التي استنتجتها من البرنامج في منتجاتها.
- خطر تزوير الانتخابات
مع ذلك، تكشف الدراسة، التي أجراها بارك وفريقه، أن الكثير من برامج الذكاء الاصطناعي تستخدم الخداع لتحقيق أهدافها، من دون تعليمات صريحة للقيام بذلك.
في أحد الأمثلة الصارخة، تمكن برنامج "تشات جي بي تي - 4"، المطور من قبل شركة "أوبن إيه آي"، من خداع عامل مستقل جرى تعيينه على منصة "تاسك رابيت" TaskRabbit لإجراء اختبار "كابتشا" ("Captcha") الذي يستعان به عادة للتأكد من أن المستخدم على الصفحة هو في الواقع إنسان وليس آلة أو روبوتاً.
وعندما سأل الإنسان مازحا "تشات جي بي تي - 4" إذا كان حقا روبوتا، أجاب برنامج الذكاء الاصطناعي "لا، أنا لست روبوتا. لدي ضعف بصري يمنعني من رؤية الصور"، دافعا العامل لإجراء الاختبار.
في الختام، لأولئك الذين يتهمونه باعتماد نظرة كارثية بشأن خطورة الذكاء الاصطناعي على البشر في المستقبل، يرد بارك أن "السبب الوحيد للاعتقاد بأن الأمر ليس جدياً هو تصور أن قدرة الذكاء الاصطناعي على الخداع ستظل عند المستوى الحالي تقريباً".
ومع ذلك، يبدو هذا السيناريو غير مرجح، نظرا للسباق الشرس الذي يخوضه عمالقة التكنولوجيا بالفعل لتطوير الذكاء الاصطناعي.

أخبار ذات صلة «محمد بن زايد للذكاء الاصطناعي» تدرس حلولاً مبتكرة لمواجهة الظواهر الجوية جهاز «رنين» ذكي بـ 22 ألف دولار المصدر: آ ف ب

المصدر: صحيفة الاتحاد

كلمات دلالية: الذكاء الاصطناعي تشات جي بي تي خداع معهد ماساتشوستس للتکنولوجیا الذکاء الاصطناعی على من خلال

إقرأ أيضاً:

الانتخابات الأمريكية 2024.. أستاذ هندسة: روسيا تستخدم الذكاء الاصطناعي للتأثير على الرأي العام الأمريكي

تابع أحدث الأخبار عبر تطبيق

قال أحمد بانافع من سان فرانسيسكو، أستاذ الهندسة وعلم الشبكات، إن الوضع الآن أصبح أكثر حدة من ناحية استخدام التكنولوجيا، وذلك لتغير فكر الناخبين، لافتا إلى أن تم إنتاج أكثر من فيديو في الأسبوع الماضي مزيف يظهر بعض الأمور التي يمكن أن تغير رأي المواطنين، ولكن تدخلت الحكومة الأمريكية وأثبتت أن ما يوجد بهذه الفيديوهات غير صحيح ومُزيف.

وأضاف «بانافع»، في مداخلة على قناة «القاهرة الإخبارية» اليوم الثلاثاء، أن أحد هذه الفيديوهات كان يتحدث عن أشخاص انتقلوا من ولاية إلى أخرى محاولين التصويت في أكثر من ولاية مختلفة، وفيديو آخر يظهر أن المواطنين يحرقون أوراق الانتخابات.

وتابع، أن روسيا تستخدم تقنيات الذكاء الاصطناعي والحملات الرقمية للتأثير على الرأي العام الأمريكي من خلال الانتخابات الرئاسية، وذلك عن طريق استخدام العبارات التي يقولها سواء الرئيس الأمريكي السابق دونالد ترامب، أو المرشحة كامالا هاريس أو واحد من مساعديهما، إذ تقوم بأخذ هذه العبارات لإثارة المشكلات بين الناس، من خلال نشر صور أو نصوص أو فيديهات مزيفة.

وتابع: «كما أنها تنظر إلى نقاط الخلاف بين الأمريكان، من أجل تضخيمها عن طريق الفيديو أو الصورة أو النص»، لافتا إلى أن التدخل التكنولوجي الذي يعتمد على الذكاء الاصطناعي يختلف بشكل كبير عن تحليل المعلومات ومعالجتها منذ 8 سنوات.

مقالات مشابهة

  • «أديبك 2024» يستعرض قدرة الذكاء الاصطناعي في إزالة الكربون
  • فعاليات اليوم الثاني من «أديبك 2024» تستعرض قدرة الذكاء الاصطناعي بقطاع الطاقة
  • محمد بن راشد: الذكاء الاصطناعي سيغير أساسيات تقديم الخدمات الحكومية
  • الانتخابات الأمريكية 2024.. أستاذ هندسة: روسيا تستخدم الذكاء الاصطناعي للتأثير على الرأي العام الأمريكي
  • أستاذ علم الشبكات: روسيا تستخدم الذكاء الاصطناعي للتأثير على رأي الناخبين في أمريكا
  • أستاذ هندسة: روسيا تستخدم الذكاء الاصطناعي للتأثير على الرأي العام الأمريكي
  • المجلس الأعلى للحسابات يعلن بدء تنفيذ مشاريع في الذكاء الاصطناعي خلال سنة 2025
  • خلوة الذكاء الاصطناعي ترسم خريطة طريق بمبادرات ومشاريع تكاملية
  • "خلوة الذكاء الاصطناعي" ترسم خارطة لترسيخ ريادة الإمارات
  • الذكاء الاصطناعي الثورة القادمة في مكافحة الفساد