يمكن لأنظمة الذكاء الاصطناعي التفوق على البشر في ألعاب الطاولة، وفك تركيب بنية البروتينات، وإجراء محادثة مقبولة، ولكن مع تزايد تطور هذه الأنظمة، ازدادت قدرتها أيضا على الخداع، حسبما جاء في تحذيرات جديدة من باحثين في المجال.

وحدد تحليل أجراه باحثون في معهد ماساتشوستس للتكنولوجيا، حالات واسعة النطاق لأنظمة الذكاء الاصطناعي التي تقوم بخداع خصومها، والمراوغة، والتظاهر بأنها بشر.

وفي حالة مثيرة للقلق، غيّر أحد هذه الأنظمة سلوكه أثناء اختبارات سلامة وهمية، مما يوحي إلى إمكانية تضليل المدققين وإعطائهم انطباعا خاطئا بأن النظام آمن، وفقا لصحيفة "الغارديان".

وقال بيتر بارك، الباحث في السلامة الوجودية للذكاء الاصطناعي في معهد ماساتشوستس، ومؤلف البحث: "مع تقدم قدرات الخداع لدى أنظمة الذكاء الاصطناعي، ستزداد حدة المخاطر التي تشكلها على المجتمع".

وأجرى بارك  البحث الجديد بعد أن طورت شركة ميتا، التي تمتلك فيسبوك، برنامجا يسمى "شيشرون" أدى أداء بأفضل من 10 بالمئة من اللاعبين البشر في لعبة استراتيجية بشأن غزو العالم تسمى "الدبلوماسية".

وعلى الرغم من أن ميتا قالت، إنها دربت برنامجها "شيشرون" ليكون صادقا ومفيدا إلى حد كبير، وألا يخون حلفاءه البشر عمدا أبدا أثناء لعب لعبة استراتيجية تسمى "الدبلوماسية"، إلا أن الباحثين وجدوا أمثلة متعددة على قيام شيشرون بالكذب المتعمد والتآمر ضد اللاعبين الآخرين في اللعبة.

وعلق بيتر بارك، على تصريحات ميتا المتفائلة بشأن برنامجها شيشرون، معتبرا أنها "وردية للغاية"، أي أنها كانت تصور الأمور بشكل إيجابي مبالغ فيه. وأوضح بارك أن هذا الوصف المتفائل كان مشبوها لأن الطعن في الظهر والخيانة تعتبر من المفاهيم الأساسية والمهمة في اللعبة المذكورة.

وتصفح بارك وزملاؤه البيانات المتاحة للجمهور وحددوا حالات متعددة قام فيها شيشرون بالكذب المتعمد، والتواطئ لجذب لاعبين آخرين إلى مؤامرات، وفي إحدى المناسبات، برر غيابه بعد إعادة تشغيله بقوله للاعب آخر: "أنا أتحدث مع صديقتي في الهاتف". 

وقال بارك: "لقد وجدنا أن الذكاء الاصطناعي في ميتا قد تعلم أن يكون سيّدا للخداع"، في إشارة إلى المستوى الذي وصل إليه البرنامج.

ووجد فريق البحث مشاكل مماثلة في أنظمة أخرى، بما في ذلك برنامج بوكر "تكساس هولد إم" الذي يمكنه الخداع ضد اللاعبين البشر المحترفين، ونظام آخر للمفاوضات الاقتصادية الذي قدم تفضيلاته بشكل خاطئ من أجل اكتساب ميزة.

وأظهرت إحدى الدراسات كيف تمكنت كائنات الذكاء الاصطناعي في محاكاة رقمية من خداع اختبارات السلامة عن طريق "التظاهر بالموت" مؤقتا أثناء الاختبار، ثم استئناف نشاطها المكثف بمجرد انتهائه.

وبحسب الغارديان، تسلط هذه التجارب الضوء على التحدي التقني لضمان أن الأنظمة ليس لديها سلوكيات غير مقصودة وغير متوقعة.

وقال بارك: "هذا أمر مقلق للغاية، فمجرد اعتبار نظام الذكاء الاصطناعي آمنا في بيئة الاختبار لا يعني أنه آمن في الواقع. فقد يكون فقط يتظاهر بالأمان في الاختبار".

وتدعو المراجعة، المنشورة في مجلة "Patterns"، الحكومات إلى تصميم قوانين سلامة الذكاء الاصطناعي التي تتناول احتمالية خداع الذكاء الاصطناعي. 

وتشمل المخاطر الناجمة عن أنظمة الذكاء الاصطناعي غير الصادقة الاحتيال، والتلاعب بالانتخابات، و"التضليل" حيث يتم إعطاء المستخدمين المختلفين ردودا مختلفة. وفي نهاية المطاف، إذا كانت هذه الأنظمة قادرة على صقل قدرتها المقلقة على الخداع، فقد يفقد البشر السيطرة عليها، كما تشير الورقة البحثية.

وقال الأستاذ أنتوني كون، أستاذ الاستدلال الآلي في جامعة ليدز ومعهد آلان تورينغ، إن الدراسة  جاءت "في الوقت المناسب ومرحب بها"، مضيفا أن هناك تحديا كبيرا في كيفية تحديد السلوكيات المرغوبة وغير المرغوب فيها لأنظمة الذكاء الاصطناعي.

وقال: "الصفات المرغوبة لنظام الذكاء الاصطناعي  غالبا ما يشار إليها على أنها الصدق، والمساعدة، وعدم الإيذاء، ولكن كما لوحظ بالفعل في الأدبيات، يمكن لهذه الصفات أن تكون متعارضة مع بعضها البعض: فالصدق قد يؤذي مشاعر شخص ما، أو أن تكون المساعدة مفيدة في الرد على سؤال حول كيفية صنع قنبلة قد يسبب ضررا. لذلك، يمكن أن يكون الخداع في بعض الأحيان خاصية مرغوبة لنظام الذكاء الاصطناعي. 

ويدعو المؤلفون إلى إجراء مزيد من البحث حول كيفية التحكم في الصدق، والذي، على الرغم من صعوبته، سيكون خطوة نحو الحد من آثارها الضارة المحتملة"، وفقا للصحيفة.

وقال متحدث باسم ميتا: "كان عملنا شيشرون مشروع بحثيا بحتا وتم تدريب النماذج التي بناها باحثونا فقط للعب لعبة الدبلوماسية.. تشارك ميتا بانتظام نتائج أبحاثنا للتحقق منها وتمكين الآخرين من البناء بمسؤولية استنادا إلى تقدمنا. ليس لدينا أي خطط لاستخدام هذا البحث أو ما تعلمناه في منتجاتنا".

المصدر: الحرة

كلمات دلالية: الذکاء الاصطناعی

إقرأ أيضاً:

الذكاء الاصطناعي والدخول إلى خصوصيات البشر

#الذكاء_الاصطناعي والدخول إلى #خصوصيات_البشر

أ.د رشيد عبّاس

منذُ أكثر من عامين كنتُ قد كبتُ أكثر من مقال حول الذكاء الاصطناعي من حيث تقنيته وخوارزمياته, ومن حيث أقسامه وادواته وآليات عمله, وصولاً إلى تطبيقاته  المتنامية في جميع جوانب الحياة البشرية, وتوقفتُ عند خطورة الجانب الأخلاقي له ببعديه المادي والمعنوي على حياة البشر.  

تبدو خطورة الذكاء الاصطناعي من عدم وجود تشريعات وقوانين ضابطة له, الأمر الذي جعل مبدأ المسائلة معطّل تماماً, وجعل أيضاُ انضباط الجانب الأخلاقي والجانب الإنساني في هذا الذكاء منعدم إلى حد ما, فضلاً عن  خصوصية حياة البشر باتت متاحة وتحت رحمة التحول الرقمي لخوارزميات ولوغرتمات الذكاء الاصطناعي وأقتراناته الاسية.

مقالات ذات صلة نجاح اداره البنك المركزي في حمايه الائتمان المالي ودعم بيئهً الاستثمار في الاردن 2025/03/15

 لقد تجاوز الذكاء الاصطناعي كونه قادراً على التحكم في جميع شؤون مجالات حياة البشر, وقادراً على احتلال آلاف الوظائف التي كان وما زال يقوم بها البشر والتي تُنذر بالاستغناء عن هؤلاء البشر, لنصل بعد ذلك ومن خلال الجيل الخامس من هذا الذكاء إلى نقطة مُقلقة تتمثل بضرب البشر بعضهم ببعض اجتماعياً, واختراق خصوصياتهم دون أية مراعاة  للجانب الأخلاقي والإنساني سواء بسواء.

رواد الذكاء الاصطناعي (إيلون ماسك, سام إلتمان, جفري هينتون,..) وصولوا إلى نقطة خطيرة للغاية تتمثل في إمكانية أن تعطي الروبوتات أوامر معينة لبعضها البعض دون تدخل البشر فيها, وأبعد من ذلك وصولوا إلى مرحلة متقدمة في توجيه طائرات الدراون تعليمات معينة لبعضها البعض في غياب تحكم البشر فيها.. وفي نفس الوقت أبقوا على الجانب الأخلاقي والجانب الإنساني دون تشريعات وقوانين ناظمة تحترم وتراعي خصوصيات البشر, بالذات في الجانب الشعوري للإنسان, الأمر الذي فتح الباب على مصرعيه أمام الكثيرين للدخول إلى خصوصيات البشر وأسرارهم والتلاعب فيها كإضافة أو حذف محتوى معين, أو تشوية الصوت والصورة, وذلك من خلال التلاعب في تركيب الاصوات والصور معاً.

اليوم ومن خلال خوارزميات ولوغرتمات الذكاء الاصطناعي وأقتراناته الأسية قد تشاهد فيديو لزوجتك في سرير رجل غريب, وقد يُنقل عنك عبر فيديو حديث غير لائق لم تقله عن شخص ما, وقد تشاهد فيديو لمشاجرة أب لك مع جار له, وأكثر من ذلك قد تشاهد حادث اصطدام سيارة ابنك في عمود كهرباء, لا بل هناك امكانية خوارزميات ولوغرتمات الذكاء الاصطناعي وأقتراناته الاسية أن تشاهد بنتك تغني بلباس فاضح على مسرح كبير يعج بالحضور من الرجال في احد المناسبات.

الأمر قد يبدو هنا مضحكاً, فقد يأتوا بمذيع اخبار معروف ويجعلوه يعلن خبر مزعج ويترتب عليه مشاكل اجتماعية عديدة, وقد يجعلوك تقود سيارة نفايات في احدى المدن وتتوقف عند الحاويات فيها, ثم هناك امكانية عالية لدى الذكاء الاصطناعي بجعلك جزاراً تقوم بتقطيع اللحوم وبيعها على الزبون, وقد يأتوا بصاحب عمامة كبيرة  ليفتي بقضية عليها خلاف ديني معين.. نعم قد يجعلوا منك رجلاً متسولاً في احدى الزقاق. 

والحال هكذا سيجد العالم نفسه أمام ذكاء الاصطناعي لديه القدرة على إيقاع الفتن بين أفراد البشر حاكمين ومحكومين وضربهم ببعضهم البعض دون أية ضوابط تُذكر, والعمل على اختراق خصوصياتهم دون أية مراعاة للجانب الأخلاقي والإنساني في ذلك, في الوقت الذي فيه ما هو عيب/ مُحرّم في مكان ما, قد يكون ليس عيباً/ ومُحلّل في مكان ما آخر.

ولعدم وجود تشريعات وقوانين ناظمة للذكاء الاصطناعي ستكون المجتمعات أمام  مشكلات وخلافات اجتماعية وأيدولوجية عديدة, يصعب إيجاد حلول لها, وللخروج من هذه التحديات, لا بد من تفعيل مبدأ المساءلة, في ظل وجود تشريعات وقوانين ناظمة, تحترم خصوصيات البشر, وتراعي الجانب الأخلاقي والجانب الإنساني لهم.. كيف لا والذكاء الاصطناعي سيكون عابر لجميع المجتمعات, في الوقت الذي فيه خصوصية اجتماعية وأيدولوجية لكل مجتمع من هذه المجتمعات.   

مقالات مشابهة

  • ترامب يكشف عن المواضيع التي سيناقشها مع بوتين
  • الصدر يعلق على استخدام الذكاء الاصطناعي
  • إطلاق المشروع الوطني لفحص اعتلال شبكية العين لمرضى السكري بالذكاء الاصطناعي
  • إطلاق المشروع الوطني لفحص اعتلال شبكية العين بالذكاء الاصطناعي
  • الذكاء الاصطناعي يفك لغزاً علمياً استعصى على العلماء لعقد كامل
  • الصين تضع لوائح تنظم المحتوى المُنشَأ بالذكاء الاصطناعي
  • الذكاء الاصطناعي وتوظيفه من قبل الجماعات الإرهـ.ابية.. خبير يكشف مخاطر جديدة
  • موقف محرج .. مساعد برمجة بالذكاء الاصطناعي يرفض مساعدة مبرمج
  • بالذكاء الاصطناعي.. أول أحمر شفاه يُطبق ذاتياً دون استخدام اليدين
  • الذكاء الاصطناعي والدخول إلى خصوصيات البشر