العلوم الشرطية تستعرض تقنيات الذكاء الاصطناعي في العمل الأمني
تاريخ النشر: 20th, September 2023 GMT
نظمت أكاديمية العلوم الشرطية بالشارقة ــ بمناسبة اليوم العالمي للقانون ــ ندوة علمية تحت عنوان “استخدام تقنيات الذكاء الاصطناعي في العمل الأمني: أساليبها ومشروعيتها والمسؤولية القانونية جمع الاستدلال – التحقيق – المحاكمة”.
جاء ذلك بحضور سعادة العميد الدكتور محمد خميس العثمني مدير عام الأكاديمية ومديري الإدارات ونوابهم ورؤساء الأقسام وأعضاء الهيئة التعليمية وطلبة الجامعات بالمدينة الجامعية بالشارقة وعدد من المهتمين والمتخصصين في هذا المجال.
وأكد العميد العثمني حرص أكاديمية العلوم الشرطية بالشارقة على مواكبة الأحداث والفعاليات العالمية في المجال الأمني والقانوني بشكل مستمر وفعال ومن هذا المنطلق تهتم الاكاديمية بالمشاركة في احتفالات اليوم العالمي للقانون ذلك القانون الذي يحافظ على حقوق الأفراد وحرياتهم العامة والتي تتمثل فى التضامن الاجتماعى بين الأفراد والشعوب ويصدر الإرشادات المناسبة لسلوك المواطنين كافة، وذلك حفاظًا على العدالة.
وأضاف أن القانون يبقى أساسيا في حياة الشعوب ومؤسساتها فهو الذي يحدد معايير السلوك المقبول وغير المقبول بل يضمن الوصول إلى العدالة وجعل حقوق الإنسان حقيقة واقعة ويضمن احترام حقوق الغير لضمان أمن المجتمع.
وتضمنت الندوة جلسة رئيسية برئاسة العقيد الدكتور باسم حسن النقبي تضمنت محورين المحور الأول “مشروعية استخدام تقنيات الذكاء الاصطناعي في العمل الأمني – مرحلتي التحقيق والمحاكم” بمشاركة القاضي الدكتور محمد عبيد الكعبي والدكتور محمد علي خاطر رئيس نيابة مساعد.
وتناول القاضي الكعبي “الذكاء الاصطناعي والقضاء” مشيرا إلى أن حكومة دولة الإمارات تعد الأولى في العالم في استثمار الذكاء الاصطناعي بمختلف قطاعاتها الحيوية متطرقا لأهمية الذكاء الاصطناعي في القضاء ومنها دوره في تحليل البيانات والبحوث والدراسات والتنبؤ بالأحكام.
كما استعرض الميثاق الأخلاقي الأوروبي بشأن استخدام الذكاء الاصطناعي حيث خلص في نهاية ورقة العمل التي قدمها إلى أنه لا يمكن الاعتماد على الذكاء الاصطناعي في إصدار الأحكام على اعتبار أنها تصدر على الجزم واليقين وليس على الشك والتخمين.
من جانبه أشار الدكتور محمد خاطر في ورقة العمل الثانية التي قدمها بعنوان “مشروعية استخدام الذكاء الاصطناعي في مرحلة التحقيق” أن الذكاء الاصطناعي سيكون مفيداً جداً في عمل النيابة العامة وسيدخل في العديد من آليات العمل منها تقديم الاستشارات القانونية لأعضاء النيابة العامة في وضع تكييف قانوني للواقعة بشكل سريع ودقيق، والتعرف على هوية المتهمين والاطلاع على السوابق الجنائية الخاصة.
وأضاف أن النيابة العامة بدولة الإمارات بصدد إنشاء فريق يختص بوضع خريطة طريق لمستقبل النيابة العامة والذكاء الاصطناعي يعنى بدراسة ومعالجة التحديثات القانونية بما يفتح الطريق أمام تطوير المنظومة القضائية للنيابة العامة من دون عقبات مستقبلية ويضطلع هذا الفريق بإنجاز مشروع «وكيل النيابة الروبوت» الذي تستخدم فيه تقنية الذكاء الاصطناعي لتحقيق القضايا بجميع اللغات ولديه معرفة بجميع القوانين وخاصية التفاعل مع الأشخاص.
واختتم الدكتور خاطر ورقته بعرض مجموعة من التوصيات من أهمها إصدار تشريع جديد ينظم العمل بأنظمة الذكاء الاصطناعي ويحدد العقوبات الجنائية المفروضة على مُصنّع الذكاء الاصطناعي عند مخالفته لقواعد ومعايير الجودة والأمان المفروضة عليه وإبرام المعاهدات الدولية لتنظيم استغلال تطبيقات الذكاء الاصطناعي وتفريد المسؤولية الجنائية المتعلقة بكل من المُصنّع والمالك والمستخدم حتى يمكن تحديد المسؤول جنائيا عن ارتكاب الجرائم الناشئة عن تطبيقات الذكاء الاصطناعي.
وفي المحور الثاني من أعمال الندوة أشار الدكتور عبدالقادر في ورقة عمله بعنوان “دور الشرطة في استخدام تطبيقات الذكاء الاصطناعي في مرحلة جمع الاستدلالات” إلى أن مرحلة الاستدلال هي مرحلة التنقيب التي تقوم بها سلطة الاستدلال وتسبق الدعوى الجنائية والغاية منها البحث عن وجود أدلة على ارتكاب المتهم للجريمة وتجميع كل العناصر التي تستخدمها النيابة العامة في متابعة الدعاوى ..لافتا إلى أن تقنيات الذكاء الاصطناعي في مرحلة جمع المعلومات يمكن أن تتم من خلال النظم الخبيرة والروبوتات والواقع المعزز والافتراضي وبرامج تحليل البيانات الضخمة.
بدوره أشار الملازم أول سالم آل علي في ورقة عمل أخرى بعنوان “رؤية البحث العلمي حول استخدام تقنيات الذكاء الاصطناعي في العمل الأمني” إلى إمكانية توظيف الذكاء الاصطناعي في التحليل الجنائي والتعرف إلى الصور وتحليل الصوت والنصوص والتوقعات الجنائية من خلال مساعدة الشرطة في تنبؤات الجريمة باستخدام البيانات التاريخية ونماذج الذكاء الاصطناعي ما يساعد في اتخاذ الإجراءات الوقائية المناسبة.وام
المصدر: جريدة الوطن
إقرأ أيضاً:
الذكاء الاصطناعي مجرد وهم.. باحثون يكشفون السبب
تابع أحدث الأخبار عبر تطبيق
في تطور جديد يعيد تقييم فعالية الذكاء الاصطناعي، أعلن باحثون بإحدى شركات التكنولوجيا العملاقة أن الذكاء الاصطناعي، وخصوصًا النماذج اللغوية الكبيرة، يُظهر سلوكًا يُوحي بالذكاء ولكنه في الواقع مجرد وهم، هذه النماذج تُظهر قدرة على الاستجابة والتفاعل مع المستخدمين، إلا أنها تفتقر إلى التفكير المنطقي الحقيقي وفهم السياق العميق.
ووفقا لموقع techxplore أن الباحثون يقولون رغم التقدم الكبير الذي حققته تطبيقات الذكاء الاصطناعي، توضح دراسة باحثي شركة التكنولوجيا أن هذه التقنيات ما زالت بعيدة عن تحقيق ذكاء حقيقي، والنماذج الحالية تعتمد على تقنيات تحليل الأنماط بدلاً من الفهم العميق أو التفكير المنطقي، مما يجعلها أداة مفيدة ولكنها ليست بديلاً عن العقل البشري، ونُشر البحث عبر منصة arXiv preprint.
نقاط البحث الأساسية:
• أجريت الدراسة على نماذج لغوية كبيرة، مثل تلك المستخدمة في تطبيقات الذكاء الاصطناعي الشائعة.
• أظهرت النتائج أن هذه النماذج لا تفهم الأسئلة المطروحة فهمًا حقيقيًا، بل تعتمد على بنية الجمل والخوارزميات المكتسبة.
الفرضية الأساسية للدراسة:
افترض الباحثون أن الذكاء الحقيقي، سواء للكائنات الحية أو الآلات، يتطلب القدرة على:
1. التمييز بين المعلومات ذات الصلة وغير ذات الصلة: مثال ذلك، إذا سأل طفل والده عن عدد التفاح في حقيبة تحتوي على تفاح صغير الحجم، يمكن للعقل البشري تجاهل حجم التفاح كعامل غير ذي صلة بالإجابة.
2. إظهار التفكير المنطقي: القدرة على استخلاص الاستنتاجات الصحيحة بناءً على المعطيات المتاحة.
اختبار النماذج اللغوية الكبيرة:
• استخدم الباحثون مئات الأسئلة التي استُخدمت سابقًا لتقييم قدرة النماذج اللغوية.
• أضيفت معلومات غير ذات صلة إلى هذه الأسئلة لقياس قدرة الذكاء الاصطناعي على تجاهلها.
• النتيجة: أدى وجود معلومات زائدة إلى إرباك الذكاء الاصطناعي، مما نتج عنه إجابات خاطئة أو غير منطقية.
نتائج البحث:
1. عدم الفهم الحقيقي للسياق
النماذج اللغوية الكبيرة لا تفهم الأسئلة فهمًا عميقًا. بدلاً من ذلك، تستند إلى التعرف على الأنماط وتوليد إجابات تعتمد على البيانات السابقة.
2. إجابات مضللة
أعطت النماذج إجابات بدت صحيحة ظاهريًا، لكنها عند الفحص الدقيق تبين أنها خاطئة أو غير متسقة مع المنطق.
3. الوهم الذكي
النماذج تظهر وكأنها “تفكر” أو “تشعر”، لكنها في الواقع تعتمد على خوارزميات تعليم الآلة للتفاعل مع المستخدم، دون وجود ذكاء حقيقي أو إدراك.
أمثلة توضيحية من البحث:
• سؤال بسيط: عند طرح سؤال على الذكاء الاصطناعي يتضمن معلومات غير ضرورية، غالبًا ما يدمجها في إجابته بدلاً من تجاهلها.
• الشعور والإحساس: عند سؤال الذكاء الاصطناعي عن “شعوره” تجاه أمر معين، قد يقدم إجابات تُوحي بأنه يشعر، لكن هذه مجرد خدعة لغوية تعتمد على بيانات التدريب.
دلالات البحث:
• النتائج تعزز وجهة النظر التي ترى أن الذكاء الاصطناعي ليس “ذكاءً” حقيقيًا بالمعنى البشري، بل هو نموذج إحصائي معقد.
• تؤكد الدراسة أن الذكاء الاصطناعي الحالي غير قادر على التفكير المنطقي أو فهم السياق كما يفعل الإنسان.
التحديات المستقبلية:
• تحسين قدرة النماذج اللغوية على الفصل بين المعلومات ذات الصلة وغير ذات الصلة.
• تطوير نماذج ذكاء اصطناعي تفهم السياق بشكل أفضل وتُظهر منطقًا أقرب للإنسان.
• تقليل الاعتماد على الأنماط الإحصائية وزيادة التركيز على التفاعل الديناميكي.