ورشة حول الأصول الافتراضية وتقنيات الذكاء الاصطناعي
تاريخ النشر: 20th, June 2024 GMT
أبوظبي: «الخليج»
نفذت أكاديمية سيف بن زايد للعلوم الشرطية والأمنية بالقيادة العامة لشرطة أبوظبي، ورشة عمل حول «الأصول الافتراضية» وأهم تقنيات الذكاء الاصطناعي.
وأكد اللواء ثاني بطي الشامسي، مدير أكاديمية سيف بن زايد للعلوم الشرطية والأمنية أن الاستثمار في بناء بنية رقمية متطورة لمنصات التدريب واستخدام التقنيات الحديثة في تقييم المواد والتفاعل مع المتدربين يعد ضرورة قصوى في الأكاديمية، ومن خلالها يتم فرض التدريب الافتراضي والذكاء الاصطناعي وإنترنت الأشياء والتركيز على تقنية الواقع الافتراضي الذي أصبح مطلباً حيوياً لإيجاد بيئة تفاعلية بين المتدرب والمادة التعليمية والتدريبية لتعزيز عملية الاستيعاب والتي تسمح بتطوير مختبرات افتراضية وسيناريوهات بأقل التكاليف، مما يسهم في رفع قدراتنا وكفاءتنا ومهاراتنا في مواجهة الأزمات.
المصدر: صحيفة الخليج
كلمات دلالية: فيديوهات شرطة أبوظبي
إقرأ أيضاً:
من الوكلاء إلى الهلوسات.. هكذا تطور الذكاء الاصطناعي في 2024
شهد عام 2024 تطورات بارزة في مجال الذكاء الاصطناعي، خاصة في نماذج اللغة التي أصبحت أكثر دقة وكفاءة؛ فمن النماذج الصغيرة ذات القدرات المذهلة إلى معالجة الهلوسات وصولاً إلى ظهور وكلاء الذكاء الاصطناعي، يبرز هذا العام بوصفه نقطة تحول كبيرة في هذا المجال.
النماذج الصغيرةعلى الرغم من أن نماذج اللغة الكبيرة (LLMs) مثل ChatGPT تعتمد على مئات المليارات من المقاييس لتقديم أداء شبيه بالبشر، فإن عام 2024 شهد طفرة في النماذج الصغيرة، التي تتمتع بكفاءة أكبر وموارد أقل.
هذه النماذج، مثل Phi-3 وPhi-4 من مايكروسوفت وLlama-3.2 من ميتا، تُعد أدوات مرنة يمكن تكييفها بسهولة لأداء مهام محددة، مثل التلخيص أو التحقق من الحقائق.
بالإضافة إلى ذلك، فإنها تستهلك طاقة أقل وتعمل على أنظمة حاسوبية أقل تكلفة، مما يجعلها خياراً مثالياً للمؤسسات ذات الموارد المحدودة.
ما يميز هذا العام أيضاً هو التفاعل المتسارع بين النماذج الكبيرة والصغيرة، حيث تسهم الأولى في تقديم ابتكارات تُستخدم لتحسين الثانية، مما يُنتج أنظمة هجينة أكثر قوة.
على صعيد متصل، أشار تقرير في موقع Fast Company إلى أن إتاحة هذه النماذج على نطاق واسع فتح المجال لتطبيقات متنوعة، لكنها جاءت بمخاطر جديدة، لا سيما خلال عام شهد انتخابات حاسمة في العديد من الدول.
واستخدمت بعض الأطراف نماذج الذكاء الاصطناعي في حملات تضليل واسعة، مثل مكالمات روبوتية مزيفة تقلد صوت الرئيس الأمريكي جو بايدن لحث الناخبين على عدم التصويت، كما تم إنتاج فيديوهات وميمات خادعة باستخدام الذكاء الاصطناعي.
ورغم جهود شركات مثل OpenAI لإيقاف هذه العمليات، فإن التأثير الحقيقي لهذا النوع من التضليل على الرأي العام لا يزال غير واضح، ما دفع العديد من الولايات الأمريكية إلى إصدار قوانين جديدة لتنظيم استخدام الذكاء الاصطناعي في الحملات الانتخابية، مما يعكس القلق العالمي من تداعيات هذه التكنولوجيا.
التحدي الأكبر: الهلوساترغم تقدم نماذج اللغة، لا تزال "الهلوسات" تمثل تحدياً كبيراً، حيث تقدم النماذج أحياناً مخرجات خاطئة بثقة زائفة، مثل وصفات تنظيف خطيرة أو نصائح قانونية غير دقيقة.
ولحل هذه المشكلة، طورت الشركات تقنيات مثل "إطارات الحماية"، التي تراقب المدخلات والمخرجات في الوقت الفعلي لضمان الدقة.
ومع ذلك، أكدت الأبحاث أن هذه الهلوسات قد تكون جزءاً لا مفر منه في نماذج الذكاء الاصطناعي، بسبب محدودية مواردها الحاسوبية والمعلوماتية، تماماً كما يخطئ البشر.
شهد عام 2024 بروز "وكلاء الذكاء الاصطناعي"، وهي نماذج تتمتع بقدرات تنفيذية مستقلة، حيث تتجاوز وظائف روبوتات المحادثة التقليدية لتتمكن من استخدام أدوات خارجية وأداء مهام معقدة، حيث يمكن لوكيل ذكاء اصطناعي تخطيط جدول سفر كامل، بدءاً من حجز الرحلات إلى ترتيب الإقامة وتنظيم الفعاليات.
ورغم أن هذه التكنولوجيا لا تزال في مراحلها الأولى، فإن التوقعات تشير إلى أن 82% من المؤسسات ستتبنى وكلاء الذكاء الاصطناعي خلال السنوات الثلاث المقبلة، مع توقعات باستخدام أوسع في 2025.
وعليه، فقد كشف عام 2024 عن الإمكانيات الهائلة للذكاء الاصطناعي، لكنه أظهر أيضاً الحاجة إلى توازن دقيق بين الابتكار والمسؤولية. ومع اقتراب دخولنا عام 2025، يبقى التحدي الأكبر هو توجيه هذه التقنية نحو تحسين حياة البشر مع الحد من مخاطر إساءة استخدامها.