أول جلسة أممية تخصص للذكاء الاصطناعي: خطر جديد وعواقبه وخيمة
تاريخ النشر: 19th, July 2023 GMT
شاهد المقال التالي من صحافة العراق عن أول جلسة أممية تخصص للذكاء الاصطناعي خطر جديد وعواقبه وخيمة، السومرية نيوز – دولياتبعد أن اقتحم مجالات عدة، أصبح الذكاء الاصطناعي خطرا جديدا على السلم والأمن الدوليين، هكذا قال الأمين العام للأمم المتحدة .،بحسب ما نشر السومرية نيوز، تستمر تغطيتنا حيث نتابع معكم تفاصيل ومعلومات أول جلسة أممية تخصص للذكاء الاصطناعي: خطر جديد وعواقبه وخيمة، حيث يهتم الكثير بهذا الموضوع والان إلى التفاصيل فتابعونا.
السومرية نيوز – دولياتبعد أن اقتحم مجالات عدة، أصبح الذكاء الاصطناعي خطرا جديدا على السلم والأمن الدوليين، هكذا قال الأمين العام للأمم المتحدة أنطونيو غوتيريش. غوتيريش الذي كان يتحدث في أول جلسة يخصصها مجلس الأمن الدولي لبحث مسألة الذكاء الاصطناعي حذر من خطورة الأمر، ودعا الدول الأعضاء إلى وضع ضوابط لإبقاء التقنية تحت السيطرة.
وقال غوتيريش إنه "من الجلي أن الذكاء الاصطناعي سيكون له تأثير على جميع مناحي الحياة".
وأضاف: "الذكاء الاصطناعي التوليدي لديه إمكانيات هائلة للخير والشر، والتقنية قادرة على المساعدة في وضع حد للفقر أو علاج السرطان، لكن قد تكون لها عواقب خطيرة جدا على السلام والأمن الدوليين".وأشار إلى إمكان استخدام الذكاء الاصطناعي في "التعرف على أنماط العنف ومراقبة وقف إطلاق النار وتعزيز جهود حفظ السلام والوساطة والجهود الإنسانية".
واعتبر أن التفاعل بين الذكاء الاصطناعي والأسلحة النووية والتكنولوجيا البيولوجية والتكنولوجيا العصبية وتكنولوجيا الروبوتات، هو "أمر مقلق للغاية".
وجدد التأكيد على دعمه إنشاء كيان أممي لمؤازرة جهود حوكمة استخدام الذكاء الاصطناعي على غرار الوكالة الدولية للطاقة الذرية أو منظمة الطيران المدني الدولي.
وأشار كليفرلي الذي تستضيف بلاده في وقت لاحق من العام الحالي قمة حول الذكاء الاصطناعي إلى أن التقنية "تتحدى افتراضاتنا الأساسية حول الدفاع والردع. وتطرح أسئلة أخلاقية حول المساءلة عن قرارات مميتة في ساحة المعركة".
المصدر: صحافة العرب
كلمات دلالية: الذكاء موعد عاجل الدولار الامريكي اليوم اسعار الذهب اسعار النفط مباريات اليوم جدول ترتيب حالة الطقس الذکاء الاصطناعی
إقرأ أيضاً:
هل يستطيع الذكاء الاصطناعي التفكير مثلنا؟.. دراسة تكشف المفارقات!
مع التقدم السريع في الذكاء الاصطناعي، أصبح من الواضح أن هذه الأنظمة قادرة على تنفيذ مهام معقدة مثل تحليل البيانات، وإنتاج النصوص، وتقديم استشارات قانونية. ومع ذلك، هل يمكن للذكاء الاصطناعي أن يفكر مثل البشر؟.. فنحن نعلم أن الذكاء الاصطناعي لا يستطيع التفكير بنفس طريقة الإنسان، لكن بحثاً جديداً كشف كيف يمكن لهذا الاختلاف أن يؤثر على عملية اتخاذ القرار لدى الذكاء الاصطناعي، مما يؤدي إلى عواقب واقعية قد لا يكون البشر مستعدين لها.
اقرأ أيضاً.. الذكاء الاصطناعي يحوّل الأفكار إلى كلام في الوقت الحقيقي
دراسة حديثة نُشرت في مجلة "Transactions on Machine Learning Research" كشفت أن هناك فجوة جوهرية في كيفية استدلال البشر مقارنة بالنماذج اللغوية الكبيرة (LLMs) مثل GPT-4. والاستدلال هو عملية استخراج جواب أو نتيجة بناء على معلومات معروفة مسبقاً وقد تكون صحيحة أو خاطئة.
فالبشر قادرون على التجريد والاستنتاج التناظري، بينما يعتمد الذكاء الاصطناعي بشكل أساسي على مطابقة الأنماط التي تعلمها، مما يؤدي إلى ضعف في قدرته على التكيف مع المواقف الجديدة.وفقاً لموقع "livescience".
بحثت الدراسة في مدى قدرة نماذج اللغة الكبيرة (LLMs) على تكوين تشبيهات. وتم اختبار قدرة النماذج اللغوية الكبيرة مثل GPT-4 على حل مشكلات التناظر في سلاسل الحروف.وجد الباحثون أنه في كل من تشبيهات سلسلة الأحرف البسيطة ومسائل المصفوفات الرقمية - كانت المهمة إكمال مصفوفة بتحديد الرقم المفقود - كان أداء البشر جيدًا، لكن أداء الذكاء الاصطناعي انخفض بشكل حاد.
لماذا يحدث هذا؟
تشير هذه النتائج إلى أن GPT-4 قد يعتمد بشكل كبير على أنماط محددة في بيانات تدريبه، مما يجعله أقل مرونة في التعامل مع مشكلات تتطلب استدلالاً تناظرياً عاماً. بالمقابل، يظهر البشر قدرة أفضل على تعميم الأنماط وتطبيقها في سياقات جديدة، حتى مع تغييرات في بنية المشكلة أو عند استخدام رموز غير مألوفة.
ما التداعيات؟
تُبرز هذه الفجوة أهمية تطوير نماذج ذكاء اصطناعي تتمتع بقدرات استدلال أكثر مرونة، خاصةً في التطبيقات التي تتطلب فهماً عميقًا وتكيفاً مع سياقات متنوعة. كما تؤكد الدراسة على ضرورة تقييم أداء هذه النماذج ليس فقط بناءً على دقتها، بل أيضاً على مدى قدرتها على التكيف مع تغييرات في المشكلات المطروحة.
لماذا يهمنا أن الذكاء الاصطناعي لا يفكر مثل البشر؟
أوضحت مارثا لويس، الأستاذة المساعدة في الذكاء الاصطناعي العصبي الرمزي بجامعة أمستردام، أن البشر لديهم قدرة فطرية على التجريد من الأنماط المحددة إلى قواعد أكثر عمومية، بينما يفتقر الذكاء الاصطناعي لهذه المهارة.
فالذكاء الاصطناعي بارع في مطابقة الأنماط التي رآها سابقاً لكنه لا يستطيع تعميمها بشكل فعال. على سبيل المثال، إذا درّبنا نموذجاً على عدد هائل من الأمثلة، فسيتمكن من التعرف على الأنماط المتكررة، لكنه لن يتمكن بالضرورة من اكتشاف القاعدة الأساسية وراء هذه الأنماط.
الكمية لا تعني الفهم
تعمل معظم تطبيقات الذكاء الاصطناعي على زيادة كمية البيانات لتصبح أكثر دقة، ولكن كما قالت لويس:
"الأمر لا يتعلق بكمية البيانات، بل بكيفية استخدامها".
لماذا علينا الاهتمام؟
إذا استمر الاعتماد على الذكاء الاصطناعي دون تحسين قدراته في التفكير المجرد، فقد يؤدي ذلك إلى مشكلات في: اتخاذ القرارات: قد يتعامل الذكاء الاصطناعي مع الحالات الجديدة بالطريقة نفسها التي تعامل بها مع حالات سابقة، من دون فهم التغيرات الجوهرية.
الأخلاقيات والتحيز: الذكاء الاصطناعي قد يكرر الأنماط الموجودة في البيانات من دون تحليل أعمق لسياقها وأخلاقياتها.
التطبيقات المتقدمة: مثل الرعاية الصحية، والقانون، والتعليم، حيث يلعب التجريد والاستدلال البشري دورًا أساسيًا.
ما الحل؟
نحتاج إلى تطوير نماذج ذكاء اصطناعي أكثر قدرة على التجريد والاستدلال، بحيث لا تكتفي بمقارنة الأنماط، بل تفهم المفاهيم الكامنة خلفها.
هل يمكن الوثوق بالذكاء الاصطناعي في القرارات القانونية؟
مع تزايد الاعتماد على الذكاء الاصطناعي في الأبحاث القانونية، وتحليل السوابق القضائية، وحتى التوصيات في الأحكام، تبرز مشكلة كبيرة بشأن قدرة الذكاء الاصطناعي المحدودة على إجراء المقارنات والاستدلال التناظري.
فعند التعامل مع القضايا القانونية، يعتمد القضاة والمحامون على مقارنة الحالات الجديدة بالسوابق القضائية. لكن بما أن الذكاء الاصطناعي يعتمد على مطابقة الأنماط بدلاً من فهم المبادئ القانونية الأساسية، فقد يفشل في التمييز بين الفروق الدقيقة في القضايا وتطبيق السوابق القانونية بشكل صحيح على حالات جديدة
وتقديم توصيات عادلة ومتسقة.
مثلاً: تخيل أن هناك سابقة قضائية لحالة تتعلق بالاحتيال الإلكتروني، ولكن القضية الجديدة تتضمن تقنيات جديدة لم تكن موجودة وقت صدور السابقة. البشر يمكنهم التفكير بشكل مرن لتطبيق القاعدة العامة، لكن الذكاء الاصطناعي قد يعجز عن الربط بين الحالتين بسبب الاختلافات الظاهرية.
اقرأ أيضاً..الذكاء الاصطناعي يتقن الخداع!
الدراسة أكدت أن تقييم الذكاء الاصطناعي لا يجب أن يقتصر على الدقة فقط، بل يجب أن يشمل قدرته على التكيف والاستدلال العميق. أي أننا بحاجة إلى نماذج أكثر ذكاءً واستقلالية في التفكير، وليس مجرد أدوات لحفظ البيانات واسترجاعها..بحيث لا يمكننا الاعتماد بالكامل على الذكاء الاصطناعي في القرارات القانونية دون تطويره ليكون أكثر قدرة على تحليل القواعد وتطبيقها بمرونة. حتى ذلك الحين، يجب أن يكون دوره داعماً وليس حاسماً.
لمياء الصديق (أبوظبي)