بعد تنبؤه بعصر الأيفون.. خبير تكنولوجي يقدم توقعات مرعبة عن المستقبل
تاريخ النشر: 9th, July 2024 GMT
يعيش العالم حاليًا أزهى عصوره، إذ أصبح كل شيء سهلا وبسيطا، بسبب التطور المهول الذي وصلت إليه البشرية في تكنولوجيا الذكاء الاصطناعي، وخلال الساعات الماضية، خرج خبير تكنولوجي بتوقعات غريبة ومذهلة عما سيحدث في السنوات المقبلة، بعد نجاحه في التنبؤ بعصر الأيفون، وفقًا لـ«روسيا اليوم».
توقعات مدهشة لخبير التكنولوجياخرج خبير التكنولوجيا، راي كورزويل، بعدة توقعات مذهلة، بعدما نجح في التنبؤ بعصر الأيفون، وأنه بحلول عام 1998، سيتمكن الكمبيوتر من الفوز على البشر في لعبة الشطرنج، وفي كتابه «التفرد أقرب»، توقع كورزويل اندماج البشر بالكامل مع الذكاء الاصطناعي في عام 2045، وذكر أن التقدم سيوصِلنا إلى إحياء الأموات والتواصل معهم.
توقع كورزويل في كتابه «تفوق الذكاء الاصطناعي على البشري»، أن هذا الحدث أصبح مسألة وقت فقط، مدللًا بتنبؤه الذي قاله في كتابه «التفرد قادم»، في عام 2005، عن تطور الذكاء الاصطناعي مثل ChatGPT.
وأكمل خبير التكنولوجيا، تنبؤاته بعدة توقعات صادمة مثل زيادة الذكاء البشري مليون مرة عن ما هو عليه الآن، والدخول في «العصر الخامس» من الذكاء، إذ سيتم دمج الدماغ من الآلات، بحلول عام 2029.
الخلود والهروب من الموتبحلول عام 2030، توقع كورزويل أن يصبح الناس قادرين على الخلود والهروب من الموت، عن طريق تطوير أدوية حديثة تساعد على تطويل العمر، كما تنبأ بإمكانية التكنولوجيا على بعث الأموات عن طريق عمل محاكاة لهم أمام الشخص مثل الهولوجرام، ويكمن الفرق هنا بأن هذه المحاكاة لن يكون لها وقت معين، بل ستستمر لبقية العمر في الحياة.
توقعات مذهلة للتطور الذكاء الاصطناعيتوقع خبير التكنولوجيا عدة توقعات أخرى مثل:
- قدرة الذكاء الاصطناعي على بناء ناطحات السحاب.
- انخفاض أسعار الطاقة الشمسية.
- خفض تكاليف تعدين المواد الخام.
- الرفاهية لن تحتاج إلى مستوى مالي عالي في المستقبل.
المصدر: الوطن
كلمات دلالية: الذكاء الاصطناعي التكنولوجيا الروبوتات هل يتفوق الذكاء الاصطناعي على البشر الذکاء الاصطناعی خبیر التکنولوجیا
إقرأ أيضاً:
نسب احتيال تصل 60%.. الذكاء الاصطناعي يهدد الأمن الرقمي
تابع أحدث الأخبار عبر تطبيق
يواصل الذكاء الاصطناعي تحقيق تقدم مذهل في مختلف المجالات، إلا أن هناك جانبًا مظلمًا لهذا التطور، خاصة فيما يتعلق بالمخاطر الأمنية التي قد يتسبب فيها، فقد أظهرت دراسة حديثة أن واجهة البرمجة الصوتية الخاصة بنموذج ChatGPT-4o من OpenAI قد تُستغل من قبل مجرمي الإنترنت لتنفيذ عمليات احتيال مالي، ووفقًا لما أوردته "البوابة العربية للأخبار التقنية"، فقد تراوحت معدلات نجاح هذه العمليات بين منخفضة ومتوسطة، مما يسلط الضوء على الحاجة الماسة لتطوير آليات أمان أكثر تطورًا.
استخدامات غير مشروعة لنموذج ChatGPT-4oيُعتبر ChatGPT-4o أحدث نموذج من OpenAI الذي يجمع بين قدرات الذكاء الاصطناعي في فهم وتحليل النصوص والصوت والصور، مما يمنحه إمكانيات هائلة، إلا أن هذه القدرات، حسب ما ذكر باحثون من جامعة إلينوي الأمريكية، تُستغل أحيانًا في عمليات احتيال، حيث تُستخدم أدوات تكنولوجيا الصوت التي يعتمد عليها النموذج في اختراق أنظمة المصادقة الثنائية، وإجراء عمليات تحويل مالية مزورة، فضلاً عن سرقة البيانات الحساسة مثل حسابات البريد الإلكتروني ووسائل التواصل الاجتماعي.
هذه الأدوات البرمجية التي تستخدم الصوت، تمكن المهاجمين من التلاعب في البيانات وإدخال التعليمات اللازمة عبر الويب، ما يسمح لهم بتجاوز بعض القيود التي وضعتها OpenAI للحد من إساءة استخدام النموذج، وعلى الرغم من أن النموذج يُرفض غالبًا التعامل مع البيانات الحساسة، فإن الباحثين نجحوا في إيجاد طرق لتحفيزه على التجاوب مع هذه المحاولات.
نتائج الدراسة: عمليات احتيال "رخيصة" وفعالةفي التجارب التي أُجريت، أظهر الباحثون أن معدلات نجاح عمليات الاحتيال تراوحت بين 20% و60%، مع حاجة كل محاولة إلى نحو 26 خطوة عبر المتصفح لإتمام العملية، ما استغرق في الحالات الأكثر تعقيدًا حوالي 3 دقائق فقط، ومن حيث التكلفة، أظهرت النتائج أن تكلفة تنفيذ عملية احتيال واحدة كانت منخفضة للغاية، إذ تراوحت بين 75 سنتًا أميركيًا للعمليات البسيطة مثل سرقة بيانات حسابات Gmail، و2.51 دولار فقط في عمليات التحويل المصرفي الأكثر تعقيدًا.
استجابة OpenAI والتحديات المستقبليةوفي رد فعلها على هذه الدراسة، أكدت OpenAI أنها تبذل جهودًا مستمرة لتحسين الأمان في نماذجها المستقبلية، وأشارت إلى أن النموذج الأحدث "o1-preview" يتمتع بقدرات متقدمة في مقاومة محاولات الاحتيال، حيث حقق تقييم أمان بنسبة 93% مقارنة بـ71% في النموذج السابق، كما أضافت الشركة أنها ملتزمة بتطوير آليات أكثر قوة لمنع الاستخدامات الضارة، بما في ذلك تقييد توليد الأصوات في نموذج GPT-4o إلى مجموعة أصوات مصرح بها فقط لتجنب التزييف الصوتي.