«جوجل» تختبر خاصية جديدة لحماية الهواتف من السرقة
تاريخ النشر: 13th, June 2024 GMT
أعلنت غوغل اختبار نظاماً يعتمد على الذكاء الاصطناعي لحظر الهواتف الذكية العاملة بنظام التشغيل "أندرويد"، تلقائياً في حالة السرقة.
وأشارت الشركة إلى أن البرازيل ستكون أول دولة تختبر فيها المجموعة الأميركية العملاقة، وفقا لـ «العربية».
وتسجل البرازيل ما يقرب من حادثتي سرقة لهواتف محمولة في الدقيقة، خصوصاً في المدن الكبرى مثل ساو باولو أو ريو دي جانيرو.
وأوضح رئيس غوغل في البرازيل فابيو كويلو أن "ردود الفعل الواردة من البرازيليين ألهمت وظائف (أندرويد) ضد السرقة، وستكون هذه الدولة أول من يختبرها".
وتتألف الميزة الرئيسية الجديدة من نظام "يستخدم الذكاء الاصطناعي لاكتشاف ما إذا كان شخص ما يخطف هاتفك من يدك ويحاول الهروب عن طريق الجري أو ركوب الدراجة أو السيارة"، بحسب غوغل.
وأشارت المجموعة إلى أنه "في حالة اكتشاف حركة مرتبطة بالسرقة، ستُحجب شاشة الهاتف بسرعة لمنع اللصوص من الوصول بسهولة إلى بياناتك".
المصدر: صحيفة عاجل
كلمات دلالية: شركة جوجل
إقرأ أيضاً:
من الوكلاء إلى الهلوسات.. هكذا تطور الذكاء الاصطناعي في 2024
شهد عام 2024 تطورات بارزة في مجال الذكاء الاصطناعي، خاصة في نماذج اللغة التي أصبحت أكثر دقة وكفاءة؛ فمن النماذج الصغيرة ذات القدرات المذهلة إلى معالجة الهلوسات وصولاً إلى ظهور وكلاء الذكاء الاصطناعي، يبرز هذا العام بوصفه نقطة تحول كبيرة في هذا المجال.
النماذج الصغيرةعلى الرغم من أن نماذج اللغة الكبيرة (LLMs) مثل ChatGPT تعتمد على مئات المليارات من المقاييس لتقديم أداء شبيه بالبشر، فإن عام 2024 شهد طفرة في النماذج الصغيرة، التي تتمتع بكفاءة أكبر وموارد أقل.
هذه النماذج، مثل Phi-3 وPhi-4 من مايكروسوفت وLlama-3.2 من ميتا، تُعد أدوات مرنة يمكن تكييفها بسهولة لأداء مهام محددة، مثل التلخيص أو التحقق من الحقائق.
بالإضافة إلى ذلك، فإنها تستهلك طاقة أقل وتعمل على أنظمة حاسوبية أقل تكلفة، مما يجعلها خياراً مثالياً للمؤسسات ذات الموارد المحدودة.
ما يميز هذا العام أيضاً هو التفاعل المتسارع بين النماذج الكبيرة والصغيرة، حيث تسهم الأولى في تقديم ابتكارات تُستخدم لتحسين الثانية، مما يُنتج أنظمة هجينة أكثر قوة.
على صعيد متصل، أشار تقرير في موقع Fast Company إلى أن إتاحة هذه النماذج على نطاق واسع فتح المجال لتطبيقات متنوعة، لكنها جاءت بمخاطر جديدة، لا سيما خلال عام شهد انتخابات حاسمة في العديد من الدول.
واستخدمت بعض الأطراف نماذج الذكاء الاصطناعي في حملات تضليل واسعة، مثل مكالمات روبوتية مزيفة تقلد صوت الرئيس الأمريكي جو بايدن لحث الناخبين على عدم التصويت، كما تم إنتاج فيديوهات وميمات خادعة باستخدام الذكاء الاصطناعي.
ورغم جهود شركات مثل OpenAI لإيقاف هذه العمليات، فإن التأثير الحقيقي لهذا النوع من التضليل على الرأي العام لا يزال غير واضح، ما دفع العديد من الولايات الأمريكية إلى إصدار قوانين جديدة لتنظيم استخدام الذكاء الاصطناعي في الحملات الانتخابية، مما يعكس القلق العالمي من تداعيات هذه التكنولوجيا.
التحدي الأكبر: الهلوساترغم تقدم نماذج اللغة، لا تزال "الهلوسات" تمثل تحدياً كبيراً، حيث تقدم النماذج أحياناً مخرجات خاطئة بثقة زائفة، مثل وصفات تنظيف خطيرة أو نصائح قانونية غير دقيقة.
ولحل هذه المشكلة، طورت الشركات تقنيات مثل "إطارات الحماية"، التي تراقب المدخلات والمخرجات في الوقت الفعلي لضمان الدقة.
ومع ذلك، أكدت الأبحاث أن هذه الهلوسات قد تكون جزءاً لا مفر منه في نماذج الذكاء الاصطناعي، بسبب محدودية مواردها الحاسوبية والمعلوماتية، تماماً كما يخطئ البشر.
شهد عام 2024 بروز "وكلاء الذكاء الاصطناعي"، وهي نماذج تتمتع بقدرات تنفيذية مستقلة، حيث تتجاوز وظائف روبوتات المحادثة التقليدية لتتمكن من استخدام أدوات خارجية وأداء مهام معقدة، حيث يمكن لوكيل ذكاء اصطناعي تخطيط جدول سفر كامل، بدءاً من حجز الرحلات إلى ترتيب الإقامة وتنظيم الفعاليات.
ورغم أن هذه التكنولوجيا لا تزال في مراحلها الأولى، فإن التوقعات تشير إلى أن 82% من المؤسسات ستتبنى وكلاء الذكاء الاصطناعي خلال السنوات الثلاث المقبلة، مع توقعات باستخدام أوسع في 2025.
وعليه، فقد كشف عام 2024 عن الإمكانيات الهائلة للذكاء الاصطناعي، لكنه أظهر أيضاً الحاجة إلى توازن دقيق بين الابتكار والمسؤولية. ومع اقتراب دخولنا عام 2025، يبقى التحدي الأكبر هو توجيه هذه التقنية نحو تحسين حياة البشر مع الحد من مخاطر إساءة استخدامها.