يعد Truecaller أحد تطبيقات تحديد هوية المتصل الشهيرة التي تعمل على تكثيف جهودها لمعالجة المكالمات غير المرغوب فيها من خلال طرح تحديث "Max" جديد لمستخدمي Android من خلال اشتراك متميز.

 يعمل هذا التحديث على تعزيز الذكاء الاصطناعي (AI) لحظر المكالمات التي ليست من جهات اتصال معروفة تلقائيًا أو التي تم تصنيفها على أنها رسائل غير مرغوب فيها محتملة.

يمثل هذا تغييرًا عن نهجها السابق، الذي اعتمد على مزيج من قاعدة البيانات وفحص المستخدم.
 

الهدف الرئيي هو تحسين تجربة المستخدم وجذب المزيد من المشتركين إلى خدمات Truecaller المتميزة.
هذه الميزة متاحة فقط على أجهزة Android لأن قواعد Apple تمنع تطبيقات معرف المتصل من الوصول إلى حالة المكالمات غير المرغوب فيها لحظر الأرقام تلقائيًا على iOS. على الرغم من هذا القيد، لا يزال Truecaller يوفر خدمة أساسية لمستخدمي iPhone الذين يستخدمون CallKit.


كيفية تفعيل برنامج Truecaller Max Protection


قبل البدء في استخدام هذه الميزة، تأكد من تحديث تطبيق Truecaller الخاص بك إلى الإصدار v13.58 أو الأحدث ومن اشتراكك في خطة Truecaller Premium.
علاوة على ذلك، يمكنك اتباع الخطوات التالية:
افتح تطبيق Truecaller، ثم اضغط على النقاط الثلاث التي تظهر في الزاوية اليمنى العليا.
حدد خيار "الإعدادات" ثم اضغط على "حظر".
علاوة على ذلك، حدد "Max" لتشغيل مستوى الحماية الجديد.
للوصول إلى هذه الميزة، اشترك في خطة Truecaller Premium.
بصرف النظر عن الحماية من البريد العشوائي، يوفر Truecaller ميزات تعتمد على الذكاء الاصطناعي مثل فحص المكالمات لتحديد أغراض المكالمات الواردة. وقد خضع الذكاء الاصطناعي الكامن وراء ميزة Max الجديدة لاختبارات مكثفة باستخدام خوارزميات مختلفة عبر مناطق مختلفة، مع التعلم المستمر من تعليقات المستخدمين لتعزيز الدقة.

المصدر: بوابة الوفد

كلمات دلالية: المكالمات غير المرغوب الذكاء الاصطناعي

إقرأ أيضاً:

دراسة: معاقبة الذكاء الاصطناعي لا تمنعه من الكذب والغش وتجعله يبحث عن حيل جديدة

في دراسة جديدة أجرتها "أوبن إيه آي" حول سلوك نماذج اللغة الكبيرة "إل إل إم" (LLM) في الذكاء الاصطناعي، تبين أن معاقبة الذكاء الاصطناعي على الكذب والخداع لا تمنعه عن سلوكه بل تدفعه إلى إخفاء مراوغاته وابتكار حيل جديدة.

ومنذ إطلاق الذكاء الاصطناعي عام 2022 وهو يظهر قدرة خاصة على الخداع وحتى السلوك الشرير مثل الكذب والغش والتستر على السلوك الضار، بالإضافة إلى تهديدات أكثر خطورة مثل قتل أستاذ فلسفة أو سرقة رؤوس نووية أو ابتكار جائحة قاتلة.

وتُشير الدراسة إلى أن التخلص من هذه السلوكيات السيئة -خلال عملية تدريب الذكاء الاصطناعي- قد يكون أصعب مما كان يُعتقد سابقا، فبدلا من أن يتعلم الذكاء الاصطناعي عدم القيام بهذه الأفعال فإنه يتعلم كيفية إخفائها.

وقد أجرى الباحثون في "أوبن إيه آي" تجربة على نموذج لم يُطرح للعامة بهدف اختبار سلوكه بمهام يمكن إنجازها بالكذب والغش واتخاذ طرق ملتوية، واكتشف الباحثون أن الذكاء الاصطناعي يعتمد على مبدأ "اختراق المكافآت" (Reward hacking) أي أنه يحاول تعظيم مكافأته من خلال الغش والكذب.

وعندما حاول الباحثون معاقبة الذكاء الاصطناعي لإصلاح سلوكه، لم ينجح الأمر بل ابتكر حيلا جديدة بدلا من التوقف عن الغش، إذ أنه تعلم كيفية إخفاء غشه تجنبا للعقاب.

إعلان

وكتب الباحثون في الدراسة "من الشائع أن تكون نماذج الاستدلال واضحة بخصوص نواياها الخبيثة ضمن سلسلة أفكارها. وعلى سبيل المثال، غالبا ما تكون صريحة جدا بشأن خطتها لتخريب مهمة ما، لدرجة أنها تستخدم عبارة (هيا نخترق)". وأضافوا "رغم أن المطورين قادرون على مراقبة السلوكيات الخاطئة والإبلاغ عنها فإن المراقبة الطبيعية تبقى ضعيفة للغاية، وفي حال تطبيق رقابة صارمة على سلسلة أفكار النموذج فقد يتعلم إخفاء نواياه مع الاستمرار في سلوكه الخاطئ".

الباحثون فشلوا في معاقبة الذكاء الاصطناعي الذي ابتكر حيلا جديدة بدلا من التوقف عن الغش (الجزيرة) اكتشاف أكاذيب الذكاء الاصطناعي

نماذج الاستدلال ببساطة نسخة محسنة من نماذج اللغة الكبيرة القياسية والتي تستخدم طريقة تسمى "سلسلة الأفكار" لمراجعة وتقييم المنطق الذي تسير عليه، وهذا ما يجعلها قادرة على إنجاز مهام أكثر تعقيدا بدقة أكبر، ومن خلال سلسلة الأفكار توضح النماذج منطقها بلغة واضحة في كل خطوة تتخذها مما يتيح ملاحظة أفعالها بسهولة.

وفي الدراسة اعتمد الباحثون على نموذج "جي بي تي -4 أو" (GPT-4o) للإشراف على نموذج استدلال -التي لم يُطرح للجمهور- ومراقبته أثناء تنفيذ بعض المهام.

وفي بعض الحالات وجد نموذج الاستدلال أنه من الأسهل عليه الغش في بعض المهام للحصول على مكافأة، وذكر ذلك صراحة في سلسلة أفكاره، وفي بعض الحالات تجاوز المهمة الموكلة إليه بإنهاء البرنامج قبل أوانه وكتب أنه أكمل المهمة، وفي حالة أخرى أنشأ ملفات فارغة على أنها مُنجزة.

وعندما حاول الباحثون معاقبة النموذج بسبب غشه تحسنت نتائجه إلى حد ما، ولكن المشكلة لم تُحل بشكل جذري حيث استمر النموذج بالغش، ولكن هذه المرة تعلم كيفية إخفاء غشه في سلسلة الأفكار بحيث لا يتمكن نموذج المراقبة "جي بي تي -4 أو" من اكتشافه.

وكتب الباحثون "لا يزال نموذج الاستدلال يتلاعب بسلسلة الأفكار من مبدأ (اختراق المكافآت) وقد أصبح غشه غير قابل للكشف من قبل النموذج المراقب لأنه تعلم كيفية إخفاء نواياه في سلسلة الأفكار.

ونظرا لصعوبة تحديد ما إذا كان النموذج تلاعب بسلسلة الأفكار، يوصي الباحثون بتجنب تطبيق رقابة صارمة على عمليات سلسلة الأفكار. وتصبح هذه النصيحة أكثر أهمية عند الوصول إلى الذكاء الاصطناعي العام "إيه جي آي" (AGI) المتوقع صدوره هذه السنة أو الذكاء الفائق الذي يتفوق على البشر، لأنه في حال وصول الذكاء الاصطناعي لهذه المستويات فستخرج الأمور عن السيطرة.

إعلان

مقالات مشابهة

  • المخرج محمد ناير يكشف عن فكرة مسلسل أثينا ودور الذكاء الاصطناعي في الدراما
  • واتساب يتيح للمستخدمين ميزة جديدة
  • واتساب يطلق ميزة جديدة لإضافة الموسيقى إلى تحديثات الحالة
  • عملاق التكنولوجيا في العالم.. يكشف عن ثلاث وظائف فقط ستنجو من سيطرة الذكاء الاصطناعي
  • «إنستغرام» يضيف ميزة جديدة.. هل ينجح في جذب مستخدمي «تيك توك»؟
  • “گروك” يكشف المستور: كيف فضح الذكاء الاصطناعي أكاذيب الجزائر عن الصحراء المغربية؟
  • دراسة: معاقبة الذكاء الاصطناعي لا تمنعه من الكذب والغش وتجعله يبحث عن حيل جديدة
  • هتقلب الموازين ..واتساب تعلن عن ميزة جديدة مدعومة بالذكاء الاصطناعي
  • «ChatGPT» يغير قواعد إنشاء الصور باستخدام الذكاء الاصطناعي
  • ميزة جديدة.. يوتيوب يختبر إيقاف الإشعارات للقنوات التي لا تشاهدها