عبر الذكاء الاصطناعي.. متوفون يتواصلون مع أقاربهم!
تاريخ النشر: 4th, June 2024 GMT
بغداد اليوم- متابعة
عندما اكتشف ميشائيل بومر أنه مصاب بسرطان القولون في مراحله النهائية، أمضى الكثير من الوقت مع زوجته أنيت يتحدثان عما سيحدث بعد وفاته.
أخبرته أن أحد الأمور التي ستفتقدها بشدة هو القدرة على طرح الأسئلة عليه متى شاءت لأنه واسع الاطلاع ويفيض عليها دائما من معلوماته، حسبما ذكر بومر خلال مقابلة أجرتها معه أسوشيتد برس مؤخرا في منزله في إحدى ضواحي برلين.
أثارت هذه المحادثة فكرة لدى بومر: "لماذا لا يعيد إنشاء صوته باستخدام الذكاء الاصطناعي للبقاء على قيد الحياة بعد وفاته؟"
وتعاون رجل الأعمال البالغ من العمر 61 عاما مع صديقه في الولايات المتحدة، روبرت لوكاسيو، الرئيس التنفيذي لمنصة إيتيرنوس التي تعمل بالذكاء الاصطناعي.
وفي غضون شهرين، قاما ببناء "نسخة تفاعلية شاملة للذكاء الاصطناعي" من بومر، أول عميل للشركة.
وتقول إيتيرنوس، واسمها مشتق من الكلمة الإيطالية واللاتينية التي تعني "الأبدية"، إن تقنيتها ستسمح لعائلة بومر ”بالاستفادة من تجاربه الحياتية وخبرته".
وتعد شركة ستوري فايل واحدة من الشركات الناشئة الأكثر شهرة في هذا المجال، ومقرها كاليفورنيا، وتسمح للأشخاص بالتفاعل مع مقاطع الفيديو المسجلة مسبقا وتستخدم خوارزمياتها للكشف عن الإجابات الأكثر صلة بالأسئلة التي يطرحها المستخدمون.
وتقدم شركة أخرى تسمى "هير أفتر إيه آي" تفاعلات مماثلة من خلال برنامج "لايف ستوري آفاتار" التي يمكن للمستخدمين إنشاؤها من خلال الإجابة على طلبات أو مشاركة روايات شخصية.
هناك أيضا "مشروع ديسمبر"، وهو روبوت محادثة يوجه المستخدمين لملء استبيان للإجابة على الحقائق الرئيسية عن شخص ما وسماته، ثم سداد 10 دولارات لمحاكاة محادثة نصية مع الشخصية.
وتقدم شركة أخرى، هي "ساينس إيه آي"، جلسات روحية خيالية مجانا.
وتوفر ميزات إضافية، مثل إعادة إنشاء صوت أحبائهم بواسطة الذكاء الاصطناعي، مقابل رسوم قدرها 10 دولارات.
وفي حين تبنى البعض هذه التكنولوجيا كوسيلة للتغلب على أحزانهم، يشعر آخرون بعدم الارتياح بشأن الشركات التي تستخدم الذكاء الاصطناعي لمحاولة الحفاظ على المحادثات مع أحبائهم الراحلين.
ويشعر آخرون بالقلق من أن يجعل ذلك الحداد عملية أكثر صعوبة لأنه لن تكون هناك نهاية للحزن، وإدراك أن أحباءهم رحلوا إلى الأبد.
المصدر: وكالة بغداد اليوم
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
نسب احتيال تصل 60%.. الذكاء الاصطناعي يهدد الأمن الرقمي
تابع أحدث الأخبار عبر تطبيق
يواصل الذكاء الاصطناعي تحقيق تقدم مذهل في مختلف المجالات، إلا أن هناك جانبًا مظلمًا لهذا التطور، خاصة فيما يتعلق بالمخاطر الأمنية التي قد يتسبب فيها، فقد أظهرت دراسة حديثة أن واجهة البرمجة الصوتية الخاصة بنموذج ChatGPT-4o من OpenAI قد تُستغل من قبل مجرمي الإنترنت لتنفيذ عمليات احتيال مالي، ووفقًا لما أوردته "البوابة العربية للأخبار التقنية"، فقد تراوحت معدلات نجاح هذه العمليات بين منخفضة ومتوسطة، مما يسلط الضوء على الحاجة الماسة لتطوير آليات أمان أكثر تطورًا.
استخدامات غير مشروعة لنموذج ChatGPT-4oيُعتبر ChatGPT-4o أحدث نموذج من OpenAI الذي يجمع بين قدرات الذكاء الاصطناعي في فهم وتحليل النصوص والصوت والصور، مما يمنحه إمكانيات هائلة، إلا أن هذه القدرات، حسب ما ذكر باحثون من جامعة إلينوي الأمريكية، تُستغل أحيانًا في عمليات احتيال، حيث تُستخدم أدوات تكنولوجيا الصوت التي يعتمد عليها النموذج في اختراق أنظمة المصادقة الثنائية، وإجراء عمليات تحويل مالية مزورة، فضلاً عن سرقة البيانات الحساسة مثل حسابات البريد الإلكتروني ووسائل التواصل الاجتماعي.
هذه الأدوات البرمجية التي تستخدم الصوت، تمكن المهاجمين من التلاعب في البيانات وإدخال التعليمات اللازمة عبر الويب، ما يسمح لهم بتجاوز بعض القيود التي وضعتها OpenAI للحد من إساءة استخدام النموذج، وعلى الرغم من أن النموذج يُرفض غالبًا التعامل مع البيانات الحساسة، فإن الباحثين نجحوا في إيجاد طرق لتحفيزه على التجاوب مع هذه المحاولات.
نتائج الدراسة: عمليات احتيال "رخيصة" وفعالةفي التجارب التي أُجريت، أظهر الباحثون أن معدلات نجاح عمليات الاحتيال تراوحت بين 20% و60%، مع حاجة كل محاولة إلى نحو 26 خطوة عبر المتصفح لإتمام العملية، ما استغرق في الحالات الأكثر تعقيدًا حوالي 3 دقائق فقط، ومن حيث التكلفة، أظهرت النتائج أن تكلفة تنفيذ عملية احتيال واحدة كانت منخفضة للغاية، إذ تراوحت بين 75 سنتًا أميركيًا للعمليات البسيطة مثل سرقة بيانات حسابات Gmail، و2.51 دولار فقط في عمليات التحويل المصرفي الأكثر تعقيدًا.
استجابة OpenAI والتحديات المستقبليةوفي رد فعلها على هذه الدراسة، أكدت OpenAI أنها تبذل جهودًا مستمرة لتحسين الأمان في نماذجها المستقبلية، وأشارت إلى أن النموذج الأحدث "o1-preview" يتمتع بقدرات متقدمة في مقاومة محاولات الاحتيال، حيث حقق تقييم أمان بنسبة 93% مقارنة بـ71% في النموذج السابق، كما أضافت الشركة أنها ملتزمة بتطوير آليات أكثر قوة لمنع الاستخدامات الضارة، بما في ذلك تقييد توليد الأصوات في نموذج GPT-4o إلى مجموعة أصوات مصرح بها فقط لتجنب التزييف الصوتي.