شمسان بوست / متابعات:

في تصريح مثير أثار جدلاً عالميًا، حذر جيفري هينتون، المعروف بـ”الأب الروحي للذكاء الاصطناعي”، من أن التكنولوجيا التي ساهم في تطويرها قد تؤدي إلى انقراض البشر خلال الثلاثين عامًا المقبلة.

وفي حديثه لبرنامج Today على راديو BBC 4، كشف البروفيسور هينتون عن تقدير صادم لاحتمالية تتراوح بين 10% إلى 20% لانقراض البشرية بسبب تطورات الذكاء الاصطناعي.



وقال: “لم نضطر أبدًا إلى التعامل مع شيء أذكى منا، وهناك أمثلة قليلة جدًا على أنظمة أكثر ذكاءً يتم التحكم فيها بواسطة أنظمة أقل ذكاءً”، وفقا لما أورده موقع ndtv.

هينتون، الحائز على جائزة نوبل في الفيزياء عن إسهاماته في مجال الذكاء الاصطناعي، شبه البشر بالأطفال مقارنة بقدرات الذكاء الاصطناعي المستقبلية. وأضاف: “نحن مثل طفل يبلغ من العمر ثلاث سنوات أمام هذه الأنظمة المتقدمة”.

لم تكن هذه المخاوف جديدة على هينتون، الذي استقال من منصبه في Google عام 2023 ليتمكن من الحديث بحرية أكبر عن مخاطر التكنولوجيا، وحذر حينها من استغلال الذكاء الاصطناعي من قبل “جهات سيئة” لتحقيق أهداف مدمرة.

وأوضح هينتون أن سرعة تطور الذكاء الاصطناعي كانت مفاجئة حتى للخبراء.

وقال: “لم أكن أعتقد أننا سنصل إلى هذه المرحلة بهذه السرعة. الآن، يتوقع العلماء أن تتجاوز أنظمة الذكاء الاصطناعي الذكاء البشري خلال العقدين المقبلين، وهو أمر مخيف للغاية”.

وأكد هينتون أن التنظيم الحكومي ضرورة ملحة، مشيرًا إلى أن الاعتماد على الشركات الكبرى وحدها ليس كافيًا لضمان السلامة.

وأضاف: “الشيء الوحيد الذي يمكن أن يضمن أبحاثًا جادة حول السلامة هو القوانين الصارمة والتنظيم الحكومي”.

بين التحذيرات الصادمة والتطورات المتسارعة، يظل مستقبل الذكاء الاصطناعي لغزًا يحمل في طياته إمكانيات هائلة وفرصًا غير مسبوقة، لكنه يحمل أيضًا خطرًا يهدد وجود البشرية.

المصدر: شمسان بوست

كلمات دلالية: الذکاء الاصطناعی

إقرأ أيضاً:

الذكاء الاصطناعي قد “يبيع قراراتك” قبل اتخاذها

1 يناير، 2025

بغداد/المسلة: قد يصبح وكلاء الذكاء الاصطناعي قادرين على التأثير على نواياك بشكل سري، ما يخلق حدودًا تجارية جديدة يطلق عليها الباحثون اسم “اقتصاد النية”.

وقد نشهد في المستقبل القريب مساعدين للذكاء الاصطناعي يمكنهم التنبؤ بالقرارات التي نريد اتخاذها والتأثير عليها في مرحلة مبكرة، وبيع هذه “النوايا” المتطورة في الوقت الحقيقي للشركات القادرة على تلبية الاحتياجات حتى قبل أن نتخذ قرارنا.
تخيل أنظمة الذكاء الاصطناعي القادرة على التنبؤ بقراراتك وبيعها للشركات قبل أن تتخذها. ووفقًا للباحثين في جامعة كامبريدج، فإن هذا السيناريو المزعج قد يتحول إلى حقيقة في ما يطلقون عليه “اقتصاد النية” – وهو سوق جديد حيث تصبح الدوافع البشرية هي عملة العصر الرقمي.

ويحذر الدكتور جوني بين، مؤرخ التكنولوجيا في مركز ليفرهولم لمستقبل الذكاء في كامبريدج، من أن “اقتصاد النية سوف يعامل دوافعك باعتبارها العملة الجديدة ما لم يتم تنظيمه. وسوف يكون بمثابة اندفاعة ذهبية لأولئك الذين يستهدفون النوايا البشرية ويوجهونها ويبيعونها”.
ويزعم الباحثون أن صعود الذكاء الاصطناعي التفاعلي وروبوتات الدردشة يخلق فرصًا غير مسبوقة للتلاعب الاجتماعي. وسوف تجمع هذه الأنظمة بين معرفة عاداتنا عبر الإنترنت ومحاكاة الشخصية المتطورة لبناء مستويات عميقة من الثقة، كل ذلك في حين تجمع بيانات نفسية حميمة من خلال المحادثة غير الرسمية.
يوضح الدكتور يعقوب شودري، وهو باحث زائر في معهد لندن لأبحاث السياسة الخارجية بجامعة كامبريدج، أن “ما يقوله الناس أثناء المحادثة، وكيف يقولون ذلك، ونوع الاستنتاجات التي يمكن التوصل إليها في الوقت الفعلي نتيجة لذلك، أكثر حميمية بكثير من مجرد سجلات التفاعلات عبر الإنترنت”.

وقال: “يتم إنفاق موارد هائلة لوضع مساعدي الذكاء الاصطناعي في كل مجال من مجالات الحياة، وهو ما ينبغي أن يثير التساؤل حول مصالح وأغراض من تم تصميم هؤلاء المساعدين المزعومين لخدمتهم”.

إن شركات التكنولوجيا الكبرى تضع الأساس لهذا المستقبل بالفعل. فقد دعت شركة “OpenAI” إلى “البيانات التي تعبر عن النية البشرية… عبر أي لغة وموضوع وتنسيق”.

ويتضمن إطار عمل المطورين الجديد لشركة “Apple” بروتوكولات “للتنبؤ بالإجراءات التي قد يتخذها شخص ما في المستقبل”. وفي الوقت ذاتهذ، ناقش الرئيس التنفيذي لشركة “Nvidia” علنًا استخدام نماذج لغة الذكاء الاصطناعي لمعرفة النية والرغبة.
إن العواقب قد تكون بعيدة المدى، وتؤثر على كل شيء بدءاً من اختيارات المستهلكين وحتى العمليات الديمقراطية. ويحذر جوني بين قائلاً: “يتعين علينا أن نبدأ في النظر في التأثير المحتمل لمثل هذه السوق على التطلعات البشرية، بما في ذلك الانتخابات الحرة والنزيهة، والصحافة الحرة، والمنافسة العادلة في السوق، قبل أن نصبح ضحايا لعواقبها غير المقصودة”.

قد تتجلى هذه التكنولوجيا بطرق مفيدة على ما يبدو ــ مثل مساعد الذكاء الاصطناعي الذي يقترح تذاكر السينما بعد أن يكتشف أنك متوتر (“ذكرت أنك تشعر بالإرهاق، هل أحجز لك تذكرة السينما التي تحدثنا عنها؟”). ولكن وراء مثل هذه التسهيلات يكمن نظام متطور لتوجيه المحادثات والسلوكيات لصالح منصات أو معلنين أو حتى منظمات سياسية محددة.
وبحسب مجلة ” scienceblog” فإنه على الرغم أن من الباحثين يعترفون بأن هذا المستقبل ليس حتميًا، فإنهم يؤكدون على الحاجة إلى التوعية العامة والمناقشة الفورية. ويوضح بين أن “الوعي العام بما هو قادم هو المفتاح لضمان عدم سلوكنا الطريق الخطأ”.

المسلة – متابعة – وكالات

النص الذي يتضمن اسم الكاتب او الجهة او الوكالة، لايعبّر بالضرورة عن وجهة نظر المسلة، والمصدر هو المسؤول عن المحتوى. ومسؤولية المسلة هو في نقل الأخبار بحيادية، والدفاع عن حرية الرأي بأعلى مستوياتها.

About Post Author moh moh

See author's posts

مقالات مشابهة

  • مايكروسوفت تطور نموذجًا جديدًا بالذكاء الاصطناعي لتنفيذ المهام
  • الأرشيف والمكتبة الوطنية يناقش الذكاء الاصطناعي والإعلام
  • الذكاء الاصطناعي قد “يبيع قراراتك” قبل اتخاذها
  • مدبولي: أقل راتب في قطاع الذكاء الاصطناعي يبدأ من 15 ألف جنيه
  • عالم يحذر.. الذكاء الاصطناعي سيؤدي لانقراض البشرية
  • الذكاء الاصطناعي والترجمة
  • مع الذكاء الاصطناعي.. كُن مستعدًا لوظائف المستقبل
  • استخدام الذكاء الاصطناعي للتحدث مع الحيوانات
  • كل أسبوع.. خطر الذكاء الاصطناعي على القيم الأخلاقية