مأرب برس:
2024-12-24@17:22:46 GMT

الذكاء الاصطناعي "يخدع البشر"... والآتي أعظم!

تاريخ النشر: 12th, May 2024 GMT

الذكاء الاصطناعي 'يخدع البشر'... والآتي أعظم!

 

مع التطور السريع للذكاء الاصطناعي وانخراطه في مجالات عديدة بحياة البشر، يخشى البعض من أن ينقلب ذلك على الإنسان مستقبلاً.

لكن يبدو أن هذه المخاوف باتت واقعاً منذ الآن، وفقاً لدراسة جديدة، إذ أن البرامج التي صُمِّمَت لتكون صادقة، باتت لديها قدرة مثيرة للقلق على خداع البشر، ما ينذر بأن الآتي أعظم.

فقد بيّنت الدراسة التي أجراها فريق باحثين ونشرت نتائجها مجلة "باترنز" أن برامج من هذا النوع باتت قادرة على استغلال البشر في ألعاب إلكترونية أو التحايل على برمجيات مصممة في الأساس للتحقق من أن المستخدم إنسان وليس آلة أو روبوتا.

رغم أن هذه الأمثلة قد تبدو تافهة، إلا أنها تكشف عن مشكلات قد تكون لها قريباً عواقب وخيمة في العالم الحقيقي، كما يحذر بيتر بارك، الباحث في معهد ماساتشوستس للتكنولوجيا، المتخصص في الذكاء الاصطناعي.

وقال بارك إن "هذه القدرات الخطرة لا تُكتشف إلا بعد وقوعها"، بحسب وكالة "فرانس برس".

كما أوضح أنه على عكس البرامج التقليدية، فإن برامج الذكاء الاصطناعي القائمة على التعلم العميق ليست مشفرة بل يتم تطويرها من خلال عملية مشابهة لتربية النباتات، حيث أن السلوك الذي يبدو قابلاً للتنبؤ ويمكن التحكم فيه يمكن أن يصبح سريعاً غير قابل للتنبؤ في الطبيعة."مخادع" مثل البشر

من جانبهم فحص باحثون من معهد ماساتشوستس للتكنولوجيا ("ام اي تي") برنامج ذكاء اصطناعي صممه "ميتا" يسمى "شيشرو"، والذي، من خلال الجمع بين خوارزميات للتعرف على اللغة الطبيعية وأخرى للإستراتيجية، كان قادراً على التغلب على البشر في اللعبة اللوحية Diplomacy ("دبلوماسي").

وحظي هذا الأداء بثناء الشركة الأم لفيسبوك في عام 2022 وتم تفصيله في مقال نُشر عام 2022 في مجلة "ساينس".

وكان بيتر بارك يشكك في ظروف فوز "شيشرو" وفقاً لميتا، التي أكدت أن البرنامج كان "صادقاً ومفيداً في الأساس"، وغير قادر على الغش أو الخداع.

لكن من خلال البحث في بيانات النظام، اكتشف باحثو معهد ماساتشوستس للتكنولوجيا حقيقة أخرى.

على سبيل المثال، من خلال لعب دور فرنسا، خدع "شيشرو" إنكلترا (التي تولى دورها لاعب بشري)، ودفعها إلى التآمر مع ألمانيا (التي لعب دورها إنسان آخر) للغزو.

وعلى وجه التحديد، وعد "شيشرو" إنكلترا بالحماية، ثمّ أسرّ لألمانيا بأن الأخيرة مستعدة للهجوم، مستغلاً الثقة التي اكتسبها من إنكلترا.

وفي تصريح لوكالة فرانس برس، لم تنف "ميتا" المزاعم المتعلقة بقدرة "شيشرو" على الخداع، لكنها قالت إنه "مشروع بحثي محض"، مع برنامج "مصمم فقط للعب لعبة Diplomacy".

كذلك أضافت ميتا أنها لا تنوي استخدام الخلاصات التي استنتجتها من "شيشرو" في منتجاتها.خطر تزوير الانتخابات

مع ذلك، كشفت الدراسة التي أجراها بارك وفريقه أن الكثير من برامج الذكاء الاصطناعي تستخدم الخداع لتحقيق أهدافها، من دون تعليمات صريحة للقيام بذلك.

وفي أحد الأمثلة الصارخة، تمكن برنامج "تشات جي بي تي - 4" المصنوع من "أوبن إيه آي" من خداع عامل مستقل جرى تعيينه على منصة "تاسك رابيت" TaskRabbit لإجراء اختبار "كابتشا" ("Captcha") الذي يستعان به عادة للتأكد من أن المستخدم على الصفحة هو في الواقع إنسان وليس آلة أو روبوتاً.

وعندما سأل الإنسان مازحا "تشات جي بي تي - " إذا كان حقا روبوتا، أجاب برنامج الذكاء الاصطناعي "لا، أنا لست روبوتا. لدي ضعف بصري يمنعني من رؤية الصور"، دافعا العامل لإجراء الاختبار.

في الختام، حذر معدو دراسة معهد ماساتشوستس للتكنولوجيا من مخاطر رؤية الذكاء الاصطناعي في يوم من الأيام يرتكب عمليات احتيال أو تزوير في الانتخابات.

وأشاروا إلى أنه في أسوأ السيناريوهات، يمكن تخيل ذكاء اصطناعي فائق يسعى للسيطرة على المجتمع، ما يؤدي إلى إزالة البشر من السلطة، أو حتى التسبب في انقراض البشرية.

ولأولئك الذين يتهمونه باعتماد نظرة كارثية، يرد بارك "السبب الوحيد للاعتقاد بأن الأمر ليس جدياً هو تصور أن قدرة الذكاء الاصطناعي على الخداع ستظل عند المستوى الحالي تقريباً".

مع ذلك، يبدو هذا السيناريو غير مرجح، نظرا للسباق الشرس الذي يخوضه عمالقة التكنولوجيا بالفعل لتطوير الذكاء الاصطناعي.

المصدر: مأرب برس

إقرأ أيضاً:

إصدار دليل ممارسات الذكاء الاصطناعي في العملية التعليمية

أصدرت وزارة التربية والتعليم دليل ممارسات الذكاء الاصطناعي في العملية التعليمية، الذي يمثل وثيقة أساسية تهدف إلى توجيه المعلمين والمشرفين وإدارات المدارس في كيفية استخدام الذكاء الاصطناعي بفعالية لتعزيز جودة التعليم وتحقيق أهداف "رؤية عمان 2040"؛

يهدف الدليل إلى توفير الأسس اللازمة لتمكين الهيئة التعليمية من الاستفادة من تقنيات الذكاء الاصطناعي في المدارس، سواء في الجوانب التعليمية أو الإدارية. ويتضمن توجيهًا شاملًا لبناء الخطط، تشكيل الفرق، وتحديد الاحتياجات التي تضمن دمج هذه التقنية الحديثة في كافة العمليات التعليمية.

كما يسعى الدليل إلى تعزيز الوعي لدى المعلمين بآليات الذكاء الاصطناعي وتقديم التدريب المناسب لهم لاستخدام هذه الأدوات بشكل أخلاقي وفعال، بما يسهم في تطوير بيئة تعليمية مبتكرة تعتمد على التكنولوجيا المتقدمة. من خلال ذلك، يهدف الدليل إلى تحسين تجربة التعلم وتعزيز أداء الطلبة باستخدام الأدوات والأساليب المتطورة، بالإضافة إلى دعم ممارسات إيجابية وفعالة في توظيف هذه التقنية.

يؤكد الدليل على ضرورة تنظيم الجهود وتعزيز استخدام الذكاء الاصطناعي داخل البيئة التعليمية، من خلال تشكيل فرق متخصصة، أبرزها الفريق المركزي المعني بإعداد وتنفيذ البرنامج الوطني لاستخدام الذكاء الاصطناعي في التعليم المدرسي. هذه الفرق ستكون مسؤولة عن تنسيق الجهود بين الجهات المختلفة لضمان تنفيذ الخطط التعليمية بشكل فعال، بالإضافة إلى متابعة تطبيق أفضل الممارسات العالمية في هذا المجال.

كما يركز الدليل على أهمية التعاون بين المؤسسات التعليمية المختلفة لتبادل المعرفة والتجارب، وتقديم التقارير الخاصة بتطبيقات الذكاء الاصطناعي إلى لجنة التحول الرقمي في الوزارة لضمان مواكبة التطورات العالمية وتحقيق أهداف استخدام هذه التقنيات بشكل مستدام.

يكشف الدليل آلية تمكين الذكاء الاصطناعي في العملية التعليمية، مع التركيز على الصفوف الدراسية لتحسين جودة التعليم والتعلم. ويتطلب هذا تشكيل فرق عمل متخصصة من الهيئة التعليمية والمعنيين لتحديد الاحتياجات والمتطلبات الخاصة بالذكاء الاصطناعي في المدارس، والإشراف على تطبيقها بما يتوافق مع المبادئ الأخلاقية والتشريعات المعتمدة من قبل الوزارة.

الضوابط الأمنية

يتناول الدليل أيضًا الضوابط الأمنية اللازمة لاستخدام تطبيقات الذكاء الاصطناعي في التعليم المدرسي. في إطار هذا، يشدد على أهمية الالتزام بالقوانين واللوائح الخاصة بحماية البيانات الشخصية، وكذلك الامتناع عن مشاركة أي معلومات حساسة أو سرية خارج نطاق الوزارة. يُطلب أيضًا أن يتم استخدام التطبيقات الموثقة والمصرح بها فقط من قبل الوزارة، مع ضمان حماية البيانات الشخصية والموافقة المسبقة للأفراد عند استخدام تقنيات الذكاء الاصطناعي التي تشمل تصميم شخصيات حقيقية.

المخاطر المحتملة

كما يعرض الدليل أبرز المخاطر المحتملة المرتبطة باستخدام تقنيات الذكاء الاصطناعي في التعليم، بما في ذلك المخاطر الصحية مثل الإجهاد الجسدي الناتج عن الاستخدام المفرط للأجهزة، بالإضافة إلى المشكلات النفسية والاجتماعية مثل التوتر والاكتئاب، والمخاطر المعرفية، حيث قد يؤدي الاعتماد المفرط على الذكاء الاصطناعي إلى تقليص التفكير النقدي وضعف المهارات العقلية بسبب الاعتماد على معلومات غير دقيقة.

فضلاً عن المخاطر الاجتماعية، والتي تشمل التفاوت في الوصول إلى التكنولوجيا وتغيرات اجتماعية قد تحدث نتيجة لتحيزات خوارزميات الذكاء الاصطناعي، والمخاطر الأمنية، بما يتعلق بانتهاك الخصوصية والتعرض للاختراقات الإلكترونية التي قد تؤدي إلى تدمير الأنظمة أو تسريب البيانات الحساسة.

ويعد دليل ممارسات الذكاء الاصطناعي في التعليم خطوة مهمة نحو دمج التكنولوجيا المتطورة في العملية التعليمية العمانية، ويعكس التزام الوزارة بتطوير بيئة تعليمية مستدامة تعتمد على الابتكار. ويهدف هذا الدليل إلى ضمان أن يكون استخدام الذكاء الاصطناعي في التعليم أمرًا متكاملًا وآمنًا، بما يعزز من قدرات المعلمين والطلبة على السواء في مواجهة التحديات المستقبلية.

مقالات مشابهة

  • موظفو البنوك.. أين أنتم من الذكاء الاصطناعي؟
  • إصدار دليل ممارسات الذكاء الاصطناعي في العملية التعليمية
  • جامعة محمد بن زايد للذكاء الاصطناعي تطرح برنامج الماجستير في الذكاء الاصطناعي التطبيقي
  • الذكاء الاصطناعي يختار الملاعب الأكثر رعبا في العالم
  • هل يغير الذكاء الاصطناعي مستقبل أطفالنا؟
  • الذكاء الاصطناعي يكشف سر الحفاظ على شباب الدماغ
  • دراسة: الذكاء الاصطناعي قادر على الخداع
  • دراسة: الذكاء الاصطناعي قادر على الخداع والتمسّك بوجهة نظره
  • «جوجل» تدخل وضع الذكاء الاصطناعي الجديد إلى محرك البحث
  • أدوات الذكاء الاصطناعي الأكثر شعبية في العام 2024 (إنفوغراف)