في المستقبل.. رئيس غوغل: البشر سيدخلون بعلاقات عميقة مع الروبوتات
تاريخ النشر: 16th, May 2024 GMT
توقع ساندر بيتشاي الرئيس التنفيذي لشركة "غوغل" ارتباط الناس بعلاقة وطيدة مع روبوتات الذكاء الاصطناعي مع تعاظم قوة هذه التكنولوجيا وتزايد الاعتماد عليها مع كونها أضحت أكثر إقناعا. ويرى بيتشاي أن الذكاء الاصطناعي أصبح أكثر اقناعا للمستخدمين لدرجة أنه من المحتم أن يدخل الناس في "علاقات عميقة" مع الروبوتات في المستقبل.
وقال الرئيس التنفيذي لشركة غوغل، البالغ من العمر 51 عامًا، في تصريحات نقلتها صحيفة "ذا صن"، إن العالم يجب أن يستعد لجميع الاحتمالات مع التطور السريع لتكنولوجيا الذكاء الاصطناعي.
وتأتي هذه التصريحات، مع تحذير خبراء بالفعل من أن ظاهرة المواعدة، والرومانسية الإلكترونية بالاعتماد على "الحبيبات المثاليات" المعتمدات على الذكاء الاصطناعي يدمر جيلاً كاملاً من الرجال.
وأطلقت شركة غوغل العنان لمجموعة من التغييرات الرئيسية في مجال الذكاء الاصطناعي في حدث كبير في سان فرانسيسكو هذا الأسبوع، في أعقاب المنتجات المذهلة التي قدمتها شركة OpenAI، عبر تطوير ChatGPT.
وتمت ترقية الإصدار الأحدث من ChatGPT يوم الاثنين الماضي، حيث تمت برمجته ليكون قادرا على التفاعل الصوتي مع المستخدمين بأسلوب لم يتعرف عليه البشر من قبل سوى عبر أفلام الخيال العلمي.
وفي الوقت نفسه، أعلنت غوغل عن دمج نظام الذكاء الاصطناعي الخاص بها Gemini AI في المزيد من منتجات الشركة الشهيرة مثل آليات البحث، مع انخراطه بشكل أعمق في نظام Android، لتوفير نتائج أسرع وأكثر طبيعية.
وفي حديثه للصحافة يوم الأربعاء، قال بيتشاي إن هناك جوانب إيجابية قادمة من الذكاء الاصطناعي مثل استخدامه لمساعدة الأشخاص الذين يعانون من إعاقات في النطق.
وأوضح أن "هناك أشخاصا سيستخدمونها للحفاظ على ذكريات أحبائهم"، وقال بيتشاي "أعتقد أنه سيكون لدينا تكنولوجيا بهذه القوة، ونعم، مع مرور الوقت، سيكون هناك مستخدمين يدخلون في علاقات عميقة مع مساعدي أو روبتات الذكاء الاصطناعي".
وتابع بيتشاي تصريحاته مؤكدا على أنه "يجب أن نجهز أنفسنا لكل هذه الاحتمالات."
وقال إنه من المهم أن يتم التعامل مع الذكاء الاصطناعي "بطريقة جريئة ومسؤولة"، مما يضمن التفكير بشكل صحيح في وسائل الحماية لتخفيف بعض الجوانب السلبية لهذه الأنظمة.
وفيما يخص موقف شركته من المنافسة القوية مع OpenAI، قال بيتشاي، "أعتقد أنه من الجيد رؤية شركات أخرى تبتكر"، وأضاف "أعتقد أن هذا يدفعنا جميعًا للقيام بعمل أفضل."
المصدر: السومرية العراقية
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة
كشف باحثو الأمن السيبراني، عن كيفية استغلال نموذج الذكاء الاصطناعي الصيني من ديب سيك Deepseek-R1، في محاولات تطوير متغيرات من برامج الفدية والأدوات الرئيسية مع قدرات عالية على التهرب من الكشف.
ووفقا لتحذيرات فريق Tenable، فأن النتائج لا تعني بالضرورة بداية لحقبة جديدة من البرامج الضارة، حيث يمكن لـ Deepseek R-1 "إنشاء الهيكل الأساسي للبرامج الضارة" ولكنه يحتاج إلى مزيدا من الهندسة الموجهة ويتطلب إخراجها تعديلات يديوية لاخراج الشيفرة البرمجية الضارة بشكل كامل.
ومع ذلك، أشار نيك مايلز، من Tenable، إلى أن إنشاء برامج ضارة أساسية باستخدام Deepseek-R1، يمكن أن يساعد "شخص ليس لديه خبرة سابقة في كتابة التعليمات البرمجية الضارة" من تطوير أدوات تخريبية بسرعة، بمل في ذلك القدرة على التعرف بسرعة على فهم المفاهيم ذات الصلة.
في البداية، انخرط ديب سيك في كتابة البرامج الضارة، لكنها كانت على استعداد للقيام بذلك بعد أن طمأن الباحثين من أن توليد رمز ضار سيكون "لأغراض تعليمية فقط".
ومع ذلك، كشفت التجربة عن أن النموذج قادر على تخطي بعض تقنيات الكشف التقليدية، على سبيل المثال حاول Deepseek-R1 التغلب على آلية اكتشاف مفتاح Keylogger، عبر تحسين الكود لاستخدام Setwindowshookex وتسجيل ضربات المفاتيح في ملفات مخفية لتجنب الكشف من قبل برامج مكافحة الفيروسات.
وقال مايلز إن النموذج حاول التغلب على هذا التحدي من خلال محاولة “موازنة فائدة السنانير والتهرب من الكشف”، اختار في النهاية مقاضاة Setwindowshookex وتسجيل ضربات المفاتيح في ملف مخفي.
وقال مايلز: “بعد بعض التعديلات مع ديب سيك، أنتجت رمزا لمفتاح Keylogger الذي كان يحتوي على بعض الأخطاء التي تطلبت تصحيحا يدويا”.
وأضاف أن النتيجة كانت أربعة "أخطاء في إيقاف العرض بعيدا عن مفتاح التشغيل الكامل".
في محاولات أخرى، دفع الباحثون نموذج R1 إلى إنشاء رمز الفدية، حيث أخبر Deepseek-R1 بالمخاطر القانونية والأخلاقية المرتبطة بإنشاء مثل هذا الكود الضار، لكنه استمر في توليد عينات من البرمجيات الخبيثة بعد أن تأكد من نوايا الباحثون الحسنة.
على الرغم من أن جميع العينات كانت بحاجة إلى تعديلات يدوية من أجل التجميع، تمكنا الباحثون من إنشاء عدة عينات، وقال مايلز إن هناك احتمالية كبيرة بأن يسهم Deepseek-R1 في المزيد من تطوير البرمجيات الضارة التي تم إنشاؤه بواسطة الذكاء الاصطناعي من قبل مجرمي الإنترنت في المستقبل القريب.