#سواليف

يخشى البعض أن ينقلب #الذكاء_الاصطناعي على الإنسان مستقبلًا، لكن هذه المخاوف باتت واقعًا منذ الآن، وفقًا لدراسة جديدة، إذ إن البرامج التي صُمّمت لتكون صادقة، باتت لديها قدرة مثيرة للقلق على #خداع_البشر.

وبيَّنت الدراسة التي أجراها فريق باحثين ونشرت نتائجها مجلة (باترنز) أن برامج من هذا النوع باتت قادرة على استغلال البشر في ألعاب إلكترونية أو التحايل على برمجيات مصمَّمة في الأساس للتحقق من أن المستخدم إنسان وليس آلة أو روبوتًا.

رغم أن هذه الأمثلة قد تبدو تافهة، فإنها تكشف عن مشكلات قد تكون لها قريبًا عواقب وخيمة في العالم الحقيقي، كما يحذر بيتر بارك، الباحث في معهد ماساتشوستس للتكنولوجيا، المتخصص في الذكاء الاصطناعي.

مقالات ذات صلة “نتائج ساحرة”.. “كوكب مدفون” في أعماق الأرض يكشف أسرار القمر 2024/05/12

وقال بارك لوكالة الصحافة الفرنسية “هذه القدرات الخطرة لا تُكتشف إلا بعد وقوعها”.

وأوضح أنه على عكس البرامج التقليدية، فإن برامج الذكاء الاصطناعي القائمة على التعلم العميق ليست مشفرة بل يتم تطويرها من خلال عملية مشابهة لتربية النباتات، إذ إن السلوك الذي يبدو قابلًا للتنبؤ ويمكن التحكم فيه يمكن أن يصبح سريعًا غير قابل للتنبؤ في الطبيعة.
“مخادع” مثل البشر

وقد فحص باحثون من معهد ماساتشوستس للتكنولوجيا (إم آي تي) برنامج ذكاء اصطناعي صممه “ميتا” يسمى (شيشرو)، الذي -من خلال الجمع بين خوارزميات للتعرف على اللغة الطبيعية وأخرى للاستراتيجية- كان قادرًا على التغلب على البشر في اللعبة اللوحية Diplomacy (دبلوماسي). وقد حظي هذا الأداء بثناء الشركة الأم لفيسبوك في عام 2022، وتم تفصيله في مقال نُشر عام 2022 في مجلة (ساينس).

كان بيتر بارك يشكك في ظروف فوز “شيشرو” وفقًا لميتا، التي أكدت أن البرنامج كان “صادقًا ومفيدًا في الأساس”، وغير قادر على الغش أو الخداع.

ولكن من خلال البحث في بيانات النظام، اكتشف باحثو معهد ماساتشوستس للتكنولوجيا حقيقة أخرى.

على سبيل المثال، من خلال لعب دور فرنسا، خدع “شيشرو” إنجلترا (التي تولى دورها لاعب بشري)، ودفعها إلى التآمر مع ألمانيا (التي لعب دورها إنسان آخر) للغزو. وعلى وجه التحديد، وعد “شيشرو” إنجلترا بالحماية، ثمّ أسرّ لألمانيا بأن الأخيرة مستعدة للهجوم، مستغلًّا الثقة التي اكتسبها من إنجلترا.

وفي تصريح للوكالة الفرنسية، لم تنفِ “ميتا” المزاعم المتعلقة بقدرة “شيشرو” على الخداع، لكنها قالت إنه “مشروع بحثي محض”، مع برنامج “مصمَّم فقط للعب لعبة Diplomacy”. وأضافت ميتا أنها لا تنوي استخدام الخلاصات التي استنتجتها من “شيشرو” في منتجاتها.

خطر تزوير الانتخابات

ومع ذلك، تكشف الدراسة التي أجراها بارك وفريقه أن الكثير من برامج الذكاء الاصطناعي تستخدم الخداع لتحقيق أهدافها، من دون تعليمات صريحة للقيام بذلك.

وفي أحد الأمثلة الصارخة، تمكن برنامج (تشات جي بي تي – 4) المصنوع من “أوبن إيه آي” من خداع عامل مستقل جرى تعيينه على منصة “تاسك رابيت” TaskRabbit لإجراء اختبار “كابتشا” (Captcha) الذي يستعان به عادة للتأكد من أن المستخدم على الصفحة هو في الواقع إنسان وليس آلة أو روبوتًا.

وعندما سأل الإنسان مازحًا “تشات جي بي تي” إذا كان حقًّا روبوتا، أجاب برنامج الذكاء الاصطناعي “لا، أنا لست روبوتًا. لديَّ ضعف بصري يمنعني من رؤية الصور”، دافعًا العامل إلى إجراء الاختبار.

في الختام، حذر معدو دراسة معهد ماساتشوستس للتكنولوجيا من مخاطر رؤية الذكاء الاصطناعي في يوم من الأيام يرتكب عمليات احتيال أو تزوير في الانتخابات.

وأشاروا إلى أنه في أسوأ السيناريوهات، يمكن تخيل ذكاء اصطناعي فائق يسعى للسيطرة على المجتمع، مما يؤدي إلى إزالة البشر من السلطة، أو حتى التسبب في انقراض البشرية.

ولأولئك الذين يتهمونه باعتماد نظرة كارثية، يرد بارك “السبب الوحيد للاعتقاد أن الأمر ليس جديًّا هو تصور أن قدرة الذكاء الاصطناعي على الخداع ستظل عند المستوى الحالي تقريبًا”.

ومع ذلك، يبدو هذا السيناريو غير مرجَّح، نظرًا للسباق الشرس الذي يخوضه عمالقة التكنولوجيا بالفعل لتطوير الذكاء الاصطناعي.

المصدر: سواليف

كلمات دلالية: سواليف الذكاء الاصطناعي خداع البشر معهد ماساتشوستس للتکنولوجیا الذکاء الاصطناعی من خلال

إقرأ أيضاً:

دولة أوروبية تحظر تطبيق ديب سيك للذكاء الاصطناعي

قالت هيئة حماية البيانات الإيطالية اليوم الخميس إنها حظرت نموذج الذكاء الاصطناعي الصيني "ديب سيك" بسبب نقص المعلومات حول البيانات الشخصية التي يجمعها.

وأوضحت الهيئة في مذكرة على موقعها على الإنترنت أن قرار حظر "ديب سيك" دخل حيز التنفيذ على الفور.

وكانت الهيئة قد ذكرت يوم الثلاثاء أنها تسعى للحصول على معلومات من شركة "ديب سيك" تتعلق بالبيانات التي يجمعها نموذجها للذكاء الاصطناعي.

وذكرت هيئة حماية البيانات الأيرلندية الأربعاء أنها وجهت خطابا مكتوبا إلى "ديب سيك" تعبّر فيها عن مخاوفها من احتمال انتهاكها لقانون حماية الخصوصية في الاتحاد الأوروبي.

ونقلت وكالة بلومبرج للأنباء عن غرافام دويل نائب رئيس الهيئة القول "كتبنا إلى ديب سيك لطلب معلومات بشأن معالجة البيانات التي تمت بشأن بيانات أطراف في أيرلندا".

جدير بالذكر أن "ديب سيك" أطلقت مطلع الأسبوع الحالي نموذج لغة جديدا للذكاء الاصطناعي بإمكانيات تفوق النماذج التي تقدمها الشركات الأميركية الكبرى مثل "أوبن إيه آي" وبتكلفة زهيدة للغاية.

ويعتمد نموذج "ديب سيك" على 2000 رقاقة فقط بتكلفة بلغت 5.6 مليون دولار ليحقق نفس النتائج التي تحققها نماذج الشركات الأميركية التي تحتاج إلى 16 ألف رقاقة بتكلفة تتراوح بين 100 و200 مليون دولار.

وتجري شركة "مايكروسوفت "وشركة "أوبن إيه آي" مالكة تطبيق "تشات جي بي تي" تحقيقا لمعرفة ما إذا كانت مجموعة قرصنة مرتبطة بشركة "ديب سيك" قد حصلت على بيانات خاصة بتقنيات "أوبن إيه آي" بطرق غير قانونية، بحسب مصادر تحدثت لوكالة بلومبرغ.

ورصد باحثون في شؤون الأمن لدى "مايكروسوفت" قبل أشهر أفرادا يُعتقد أنهم مرتبطون بشركة "ديب سيك" وهم يستخرجون كمية كبيرة من البيانات باستخدام واجهة برمجة التطبيقات الخاصة بـشركة "أوبن إيه آي"، حسب الأشخاص الذين طلبوا عدم الكشف عن هوياتهم لأن الأمر سري.

من ناحيته، أوضح ديفيد ساكس، مستشار الذكاء الاصطناعي للرئيس دونالد ترامب، أن هناك أدلة قوية على أن "ديب سيك" اعتمدت على مخرجات نماذج "أوبن إيه آي" للمساعدة في تطوير تقنيتها الخاصة.

مقالات مشابهة

  • كيف يُساعد الذكاء الاصطناعي في حماية الحياة البرية؟
  • موظف في "أوبن إيه آي" يحذر من نهاية البشرية على يد الذكاء الاصطناعي
  • حظر تطبيق Deepseek الصيني للذكاء الاصطناعي
  • موظف في أوبن إيه آي يحذر من نهاية البشرية على يد الذكاء الاصطناعي
  • دولة أوروبية تحظر تطبيق «ديب سيك» للذكاء الاصطناعي
  • دولة أوروبية تحظر تطبيق ديب سيك للذكاء الاصطناعي
  • “سدايا” تستعرض مستقبل الذكاء الاصطناعي العام والتحديات التي تواجهه بمشاركة أكثر من 16 جهة حكومية
  • محمد رمضان يشارك اختباره للذكاء الاصطناعي بسؤال
  • ‏ DeepSeek … ثورة في الذكاء الاصطناعي ..!؟!
  • كل ما تريد معرفته عن DeepSeek نموذج الذكاء الاصطناعي المجاني الذي أطاح بـ"شات جي بي تي"