أشارت دراسة نشرتها مجلة "ساينس"الأميركية مؤخرا إلى نجاح باحثين في تطوير روبوت يعتمد على الذكاء الاصطناعي، للدخول في نقاش مع أشخاص يصدقون نظريات مؤامرة منتشرة على الإنترنت، وإقناعهم بتغيير آرائهم. 

الدراسة التي نشرت الخميس، مولها معهد ماساتشوستس للتكنولوجيا بالتعاون مع مؤسسة جون تمبلتون، وأثبتت أنه بإمكان استخدام الذكاء الاصطناعي، أن يلمع صورته التي أصبحت مرتبطة بنشر المعلومات المضللة، كي يتمكن من محاربتها.

وقام فريق الباحثين الذي قاده أستاذ علم النفس في الجامعة الأميركية، توماس كوستيلو، بتصميم روبوت محاور، "تشات بوت"، باستخدام برمجية "تشات جي بي تي 4"، وهي أحدث إصدارات النماذج اللغوية لشركة "أوبن إيه آي"، ومقرها سان فرانسيسكو، شمال ولاية كاليفورنيا. 

وفي مرحلة موالية تم تدريب ذلك الروبوت على الحوار والنقاش، باستخدام قاعدة بيانات ضخمة، تتضمن معلومات متنوعة في عدة مجالات، مثل الصحة والتغير المناخي والأفكار السياسية المتطرفة.

شملت الدراسة عينة تتضمن أكثر من ألفي شخص، تم اختيارهم طبقا لمعطيات مركز الإحصاء الوطني الأميركي، حتى تعكس الخصائص الأساسية للمجتمع الأميركي، من النواحي العرقية والثقافية والفئة العمرية وغيرها. 

وأجاب المشاركون على سؤال يتعلق بفحوى الأفكار والمفاهيم التي توصف بأنها نظريات مؤامرة مخالفة للواقع، والتي يؤمنون بها. وبناء على تلك الإجابات، دخل الروبوت الجديد في حوار مع جميع الأشخاص المشاركين في الدراسة.

يشير كوستيلو إلى أن حواراً قصيراً مع برنامج محاورة يعتمد على الذكاء الاصطناعي، يمكن أن يقلص مصداقية نظريات المؤامرة، بنسبة قد تصل إلى 20 في المئة. ويأتي هذا التأكيد بعد تحليل لنتائج الحوار الذي خاضه الروبوت مع المشاركين في الدراسة، والآراء التي خرجوا بها بعد انتهاء التجربة.

لكن العلماء أشاروا إلى الحاجة لمزيد من الأبحاث المماثلة، تهدف إلى تصميم نماذج معيارية للذكاء الاصطناعي، بإمكانها تفنيد نظريات المؤامرة التي ظهرت حديثاً أو منذ مدة قصيرة، ولم يتم تداول الكثير من المعلومات حولها. إذ يعتمد نجاح الروبوت المحاور على قاعدة البيانات الضخمة، التي تمكنه من تقديم أدلة ملموسة أثناء النقاش، قصد مواجهة الأفكار المضللة، والمعلومات المزيفة. وهو ما قد يقلل من فرص نجاح الروبوت في تفنيد الأفكار البسيطة أو تلك التي تنتشر بسرعة عقب ظهورها.

تأتي هذه الدراسة بالتزامن مع تصاعد المخاوف من الاستخدام المتزايد للذكاء الاصطناعي لإنتاج محتوى مزيف، يتم نشره للتأثير على الرأي العام. إذ يمكن الذكاء الاصطناعي من جعل عمليات التضليل الإعلامي تدار بطريقة آلية، ما يمنحها زخما أكبر، وانتشاراً أوسع.  

وكانت صحيفة نيويورك تايمز أشارت إلى الاستخدام المتزايد للروبوتات المعتمدة على الذكاء الاصطناعي في الحملات الدعائية على وسائل التواصل الاجتماعي. 

وتمكنت تلك الروبوتات من التفاعل مع أعداد كبيرة من الأشخاص عبر توجيه أسئلة وتعليقات مباشرة، وخلال حيز زمني قصير، في محاكاة ردود الفعل البشرية.

تتزايد المخاوف أيضاً من استخدام دول وحكومات للذكاء الاصطناعي في حملاتها الدعائية، مثل الاتهامات الموجهة لروسيا وإيران بمحاولة التأثير على الانتخابات الأميركية، والتي أثارت الكثير من الجدل السياسي في الولايات المتحدة. 

المصدر: الحرة

كلمات دلالية: الذکاء الاصطناعی

إقرأ أيضاً:

هل يمكن للبشر خسارة المنافسة أمام الذكاء الاصطناعي؟.. خبيرة تجيب

أعلنت تاتيانا تشرنيغوف كايا، وهي العضو المراسل في أكاديمية التعليم الروسية، عن أنه "لا يمكن لأحد حاليا، التنبؤ بمسار تطور الذكاء الاصطناعي".

وأوضحت كايا، بأن "الإنسان سوف يخسر المنافسة أمام الذكاء الاصطناعي"، مردفة: "نعم إننا سوف نستسلم، ولكن لدي بعض التوضيحات بخصوص هذه المسألة، لأننا لا نعرف مسار تطور الذكاء الاصطناعي. وحتى من اخترع برامج الذكاء الاصطناعي، كذلك، لا يعرف". 

وفي السياق نفسه، أضافت الخبيرة الروسية المتخصصة في علم الأعصاب: "أكّد لي العديد من الذين تحدثت معهم من وادي السيليكون، أنهم لم يعودوا يفهمون ما الذي يفعله الذكاء الاصطناعي، كما أنهم لا يعرفون خططه".

إلى ذلك، تابعت الخبيرة نفسها، بالقول: "بالطبع سوف يطرح سؤال ملح، وهل لديه خطط؟ ولكني سوف أجيب على السؤال، بأنه حاليا لا، ولكن قد تكون بعد عام. حيث إنهم كانوا سابقا يقولون إنه بعد 30 أو 50 عاما".

واستطردت: " أما الآن فإنهم يقولون قد يحدث الآن، لأنه لا أحد يعرف فيما إذا كان الذكاء الاصطناعي سوف يتطور مثل الإنسان. أم أنه سوف يتطور من خلال مسار آخر، مختلف تماما، وهذا ما لا ندركه في الوقت الحالي".


وفي سياق متصل، كان عدد من الخبراء، قد حذّروا، في وقت سابق، من أن "نماذج الذكاء الاصطناعي يمكن لها إنشاء مسببات أمراض، من قبيل: جراثيم أو فيروسات وغيرها من الكائنات الحية الدقيقة؛ كما أنها قادرة على التسبب بظهور جائحة أو وباء".

وكانت نماذج الذكاء الاصطناعي المتخصصة والمدرّبة على البيانات البيولوجية، قد شهدت تقدما وصف بـ"الملحوظ"، بشكل يساعد على تسريع تطوير اللقاحات وعلاج الأمراض وغيرها. في إشارة إلى كون هذه الصفات نفسها، هي التي تجعل هذه النماذج المفيدة، تفرض مخاطر محتملة على البشر.

وإثر ذلك، كان عدد من الخبراء، قد دعوا الحكومات، إلى ضرورة "إدخال الرقابة الإلزامية والحواجز الواقية للنماذج البيولوجية المتقدمة"، وذلك خلال ورقة بحثية جديدة، كانت قد نُشرت في تاريخ 22 آب/ أغسطس الماضي، على مجلة Science العلمية.


وأكد المؤلفين المشاركين، في الورقة البحثية، والمنتمين لكل من جامعة جونز هوبكنز وجامعة ستانفورد وجامعة فوردهام، أن "نماذج الذكاء الاصطناعي، يتم تدريبها، أو هي قادرة على التلاعب بشكل هادف بكميات كبيرة من البيانات البيولوجية، من تسريع تصميم الأدوية واللقاحات إلى تحسين غلة المحاصيل".

واقترحت الورقة نفسها، أن "تقوم الحكومات الوطنية، بما في ذلك الولايات المتحدة، بتمرير التشريعات وتحديد القواعد الإلزامية التي من شأنها منع النماذج البيولوجية المتقدمة من المساهمة بشكل كبير في المخاطر واسعة النطاق، مثل إنشاء مسببات الأمراض الجديدة أو المحسنة القادرة على التسبب في أوبئة كبرى أو حتى جوائح".

مقالات مشابهة

  • غارديان: نظريات المؤامرة تزدهر بعد المحاولة الثانية لاغتيال ترامب  
  • هل يمكن للبشر خسارة المنافسة أمام الذكاء الاصطناعي؟.. خبيرة تجيب
  • خبيرة: استخدام الذكاء الاصطناعي في الانتخابات الأمريكية أمر طبيعي
  • الذكاء الاصطناعي «يعالج» السرطان
  • الذكاء الاصطناعي يكافح السرطان
  • ماذا قال الذكاء الاصطناعي عن فرضية اختراق وتفجير البيجر في لبنان؟
  • الذكاء الاصطناعي يدخل النادي الأهلي المصري
  • لمحة حول ويندوز 11 مع مساعد الذكاء الاصطناعي كوبايلوت في الحواسيب المحمولة
  • ملتقى بالرستاق حول تطبيقات الذكاء الاصطناعي
  • للمنافسة في الذكاء الاصطناعي.. سويسرا تكشف عن حاسوبها الجديد «إي آي بي إس»