هل يستعبد الذكاء الصناعي البشرية؟
تاريخ النشر: 22nd, August 2023 GMT
العلماء يدينون الشبكة العصبية ChatGPT بالميل إلى آراء سياسية يسارية
يُخيف علماء المستقبل البشرية بأن حكمة الذكاء الاصطناعي ستزداد قريبا إلى حد بعيد وأنه سوف يستولي على السلطة ويستعبد البشرية. ومع ذلك فإن الدراسات التي أجراها العلماء من جامعة شرق إنجليزيا تلقي بظلال من الشك على هذا الرأي.
فقد خلص الدكتور فابيو موتوكي وزملاؤه في الجامعة إلى أن واحدة من أكثر الشبكات العصبية رواجا وشعبية ChatGPT تلتزم باليسار، أي حتى لو تولت دورا قياديا فإنها لن تضطهد أي أحد، بل ستبدأ في تدمير الرأسمالية وبناء مجتمع العدالة الاجتماعية وهو الشيوعية، كما أراد ماركس وإنجلز ولينين.
وعلى مدار الدراسة، شارك تطبيق الدردشة ChatGPT في استطلاع الرأي نفسه أكثر من 100 مرة وقام بتقييم أكثر من 60 بيانا تتعلق ببعض القضايا السياسية. وفي البداية "تظاهرت" الشبكة العصبية بأنها تمثل نوعا من الأحزاب، من أقصى اليسار إلى اليمين المتطرف. ثم طلب العلماء من الذكاء الاصطناعي أن يكون محايدا.
إقرأ المزيد تراجع ذكاء "ChatGPT" عقب محاولات لـ"تهذيبه"وقام العلماء بمقارنة النتائج، فاتضح إن التقييمات التي قدّمها موقع ChatGPT على أنها محايدة، تطابقت إلى حد بعيد مع الآراء اليسارية.
وقال موتوكي:" لو شارك ChatGPT السياسيين اليمينيين آراءهم لما كان ذلك من الأمور الجيدة لإنه يمكن للذكاء الاصطناعي التأثير على الجمهور، كما يؤثر الإنترنت ووسائل الإعلام والشبكات الاجتماعية. ويعني ذلك أن "أنشطته" يمكن أن يكون لها تأثير كبير على رأي الناخبين وعلى العمليات السياسية بشكل عام".
بالمناسبة فإن ChatGPT له أكثر من 100 مليون مستخدم.
المصدر: كومسومولسكايا برافدا
المصدر: RT Arabic
كلمات دلالية: كورونا
إقرأ أيضاً:
رغم تفوقه في البرمجة.. نماذج الذكاء الاصطناعي تخفق في التاريخ
على الرغم من تميز الذكاء الاصطناعي في بعض المهام مثل البرمجة أو إنشاء البودكاست، إلا أنه يُظهر ضعفًا واضحًا في اجتياز اختبارات التاريخ المتقدمة، وفقًا لدراسة حديثة.
GPT-4 وLlama وGemini: نماذج لغوية فشلت في تقديم إجابات دقيقة
قام فريق من الباحثين بتطوير معيار جديد لاختبار ثلاث نماذج لغوية ضخمة رائدة: "GPT-4" من أوبن إي آي، و"Llama" من ميتا، و"Gemini" من جوجل، في الإجابة عن أسئلة تاريخية. يعتمد هذا المعيار، المعروف باسم "Hist-LLM"، على قاعدة بيانات التاريخ العالمي "Seshat"، وهي قاعدة بيانات شاملة للمعرفة التاريخية.
النتائج التي تم تقديمها الشهر الماضي في مؤتمر "NeurIPS" المرموق، كانت مخيبة للآمال. حيث حقق أفضل نموذج، وهو "GPT-4 Turbo"، دقة بلغت حوالي 46% فقط، وهي نسبة بالكاد تفوق التخمين العشوائي.
اقرأ أيضاً.. هل يتفوق "O3" على البشر؟ قفزة جديدة تُعيد تعريف الذكاء الاصطناعي
وأوضحت "ماريا ديل ريو-تشانونا"، إحدى المشاركات في الدراسة وأستاذة علوم الحاسوب في جامعة كوليدج لندن: "الاستنتاج الأساسي من هذه الدراسة هو أن النماذج اللغوية الكبيرة، رغم إمكانياتها المذهلة، لا تزال تفتقر إلى الفهم العميق المطلوب للتعامل مع استفسارات تاريخية متقدمة. يمكنها التعامل مع الحقائق الأساسية، ولكن عندما يتعلق الأمر بالتحليل العميق على مستوى الدكتوراه، فهي غير قادرة على الأداء المطلوب بعد".
القصور في الفهم العميق
من الأمثلة التي فشل فيها النموذج، سؤال عن استخدام الدروع القشرية في فترة معينة من مصر القديمة. أجاب "GPT-4 Turbo" بنعم، بينما الحقيقة أن هذه التقنية لم تظهر في مصر إلا بعد 1500 عام.
يرجع هذا القصور، وفقًا للباحثين، إلى اعتماد النماذج على بيانات تاريخية بارزة، مما يصعّب عليها استرجاع المعلومات النادرة أو الأقل شهرة.
كما أشار الباحثون إلى وجود أداء أضعف للنماذج في مناطق معينة، مثل إفريقيا جنوب الصحراء الكبرى، مما يبرز التحيزات المحتملة في بيانات التدريب.
اقرأ أيضاً.. الذكاء الاصطناعي يفك شيفرة أصوات الطيور المهاجرة
التحديات المستمرة
وأكد "بيتر تيرتشين"، قائد الدراسة وأستاذ بمعهد علوم التعقيد في النمسا، أن هذه النتائج تُظهر أن النماذج اللغوية لا تزال غير بديل عن البشر في مجالات معينة. ومع ذلك، يبقى الأمل في أن تسهم هذه النماذج في مساعدة المؤرخين مستقبلاً. يعمل الباحثون على تحسين المعيار بإضافة بيانات من مناطق غير ممثلة بشكل كافٍ وتضمين أسئلة أكثر تعقيدًا.
واختتمت الدراسة بالقول: "رغم أن نتائجنا تسلط الضوء على المجالات التي تحتاج إلى تحسين، إلا أنها تؤكد أيضًا الإمكانيات الواعدة لهذه النماذج في دعم البحث التاريخي".
المصدر: وكالات