علوم وتكنولوجيا مكتب التحقيقات الفدرالى: المتسللين يستخدمون الذكاء الاصطناعى لإنشاء برامج ضارة
تاريخ النشر: 31st, July 2023 GMT
علوم وتكنولوجيا، مكتب التحقيقات الفدرالى المتسللين يستخدمون الذكاء الاصطناعى لإنشاء برامج ضارة،حذر مكتب التحقيقات الفيدرالي FBI من أن المتسللين يستخدمون أدوات الذكاء الاصطناعي .،عبر صحافة مصر، حيث يهتم الكثير من الناس بمشاهدة ومتابعه الاخبار، وتصدر خبر مكتب التحقيقات الفدرالى: المتسللين يستخدمون الذكاء الاصطناعى لإنشاء برامج ضارة، محركات البحث العالمية و نتابع معكم تفاصيل ومعلوماته كما وردت الينا والان إلى التفاصيل.
حذر مكتب التحقيقات الفيدرالي (FBI) من أن المتسللين يستخدمون أدوات الذكاء الاصطناعي التوليدية (AI) مثل ChatGPT، ويخلقون تعليمات برمجية ضارة ويطلقون هجمات الجرائم الإلكترونية .
وقام مكتب التحقيقات الفيدرالي (FBI) بتفصيل مخاوفه بشأن مكالمة مع الصحفيين وأوضح أن روبوتات الدردشة للذكاء الاصطناعي قد غذت جميع أنواع الأنشطة غير المشروعة، من المحتالين الذين يتقنون تقنياتهم إلى الإرهابيين الذين يستشيرون الأدوات حول كيفية شن المزيد من الهجمات الالكترونية الضارة، وفقاً لموقع digitartlends.
وفقًا لمسئول كبير في مكتب التحقيقات الفيدرالي (عبر Tom’s Hardware)، "نتوقع بمرور الوقت مع استمرار اعتماد نماذج الذكاء الاصطناعي وإضفاء الطابع الديمقراطي عليها، ستزداد هذه الاتجاهات"، وتابعوا أن الجهات الفاعلة السيئة تستخدم الذكاء الاصطناعي لتكملة أنشطتها الإجرامية المعتادة، بما في ذلك استخدام مولدات الصوت بالذكاء الاصطناعي لانتحال شخصية الأشخاص الموثوق بهم من أجل الاحتيال على أحبائهم أو كبار السن.
إنها ليست المرة الأولى التي نرى فيها متسللين يأخذون أدوات مثل ChatGPT ويقومون بتحريفها لإنشاء برامج ضارة خطيرة، في فبراير 2023، اكتشف باحثون من شركة Checkpoint الأمنية أن الجهات الخبيثة كانت قادرة على تغيير واجهة برمجة تطبيقات روبوت الدردشة، مما مكنها من إنشاء كود برمجي ضار ووضع إنشاء فيروسات في متناول أي متسلل محتمل تقريبًا.
يتخذ مكتب التحقيقات الفيدرالي موقفًا مختلفًا تمامًا عن بعض الخبراء السيبرانيين الذين تحدثنا إليهم في مايو 2023، لقد أخبرونا أن التهديد من روبوتات الدردشة للذكاء الاصطناعي قد تم تضخيمه إلى حد كبير، حيث وجد معظم المتسللين ثغرات أكواد أفضل من تسريبات البيانات التقليدية والمصادر المفتوحة بحث.
على سبيل المثال، أوضح مارتن زوجيك ، مدير الحلول التقنية في Bitdefender، أن "غالبية كتاب البرامج الضارة المبتدئين من غير المرجح أن يمتلكوا المهارات المطلوبة" لتجاوز حواجز الحماية من البرامج الضارة لروبوتات المحادثة، بالإضافة إلى ذلك، أوضح Zugec أن "جودة شفرات البرامج الضارة التي تنتجها روبوتات المحادثة تميل إلى الانخفاض".
185.208.78.254
اقرأ على الموقع الرسمي
وفي نهاية المقال نود ان نشير الى ان هذه هي تفاصيل مكتب التحقيقات الفدرالى: المتسللين يستخدمون الذكاء الاصطناعى لإنشاء برامج ضارة وتم نقلها من اليوم السابع نرجوا بأن نكون قد وفقنا بإعطائك التفاصيل والمعلومات الكامله .
علما ان فريق التحرير في صحافة العرب بالتاكد منه وربما تم التعديل علية وربما قد يكون تم نقله بالكامل اوالاقتباس منه ويمكنك قراءة ومتابعة مستجدادت هذا الخبر او الموضوع من مصدره الاساسي.
المصدر: صحافة العرب
كلمات دلالية: الذكاء ايجي بست موعد عاجل الدولار الامريكي اليوم اسعار الذهب اسعار النفط مباريات اليوم جدول ترتيب حالة الطقس الذکاء الاصطناعی
إقرأ أيضاً:
لماذا يعجز الذكاء الاصطناعي عن معرفة الوقت؟
أحدث الذكاء الاصطناعي ثورة كبيرة في العالم الرقمي وغير الطريقة التي ننظر بها إلى التكنولوجيا، ولكن رغم أن هذه التقنية قادرة على توليد الصور وكتابة الروايات وأداء الواجبات المنزلية والتحليل العاطفي، فإنها غالبا ما تفشل في معرفة الوقت أو تحديده.
وفي دراسة نُشرت على موقع "أركايف" (arXiv) – وهو أرشيف مفتوح المصدر للمقالات العلمية –اختبر باحثون في جامعة إدنبرة قدرات 7 أنواع مختلفة من نماذج اللغة الكبيرة "إل إل إم" (LLM) لاختبار قدرتها في معرفة وتحديد الوقت، وشمل اختبارهم أسئلة متنوعة حول صور لساعات وتقويمات مختلفة، وأظهرت الدراسة التي ستصدر بشكل رسمي في شهر أبريل/نيسان القادم أن هذه النماذج تواجه صعوبة في فهم ومعرفة هذه المهام والتي تُعتبر أساسية في حياتنا اليومية.
وكتب الباحثون في الدراسة: "إن القدرة على تفسير واستنتاج الوقت من المدخلات البصرية أمر بالغ الأهمية للعديد من التطبيقات في العالم الحقيقي، بدءا من جدولة الأحداث إلى الأنظمة المستقلة، ورغم التقدم في نماذج اللغة الكبيرة متعددة الوسائط، فإن معظم الأبحاث ركزت على اكتشاف الأشياء وتسمية الصور وفهم المشاهد، ولكنها لم تُركز على الاستنتاج الزمني وهذا ما جعل عامل الوقت مُهملا بالنسبة لهذه الأنظمة."
إعلانواختبر فريق البحث نماذج من مختلف الشركات مثل "شات جي بي تي -4أو" من أوبن إيه آي و"جيميني" من غوغل و"كلود" من أنثروبيك، و"لاما" من ميتا والنموذج الصيني "كوين 2″ من علي بابا و"ميني سي بي إم" من مودل بيست، وقدموا صورا ذات ألوان وأشكال مختلفة لساعات جدارية عادية وساعات بأرقام رومانية وساعات بدون عقرب الثواني، بالإضافة إلى صور لتقويم يُظهر الأيام والأشهر لآخر 10 سنوات.
وفي اختبار الساعات، سأل الباحثون نماذج اللغة الكبيرة: "ما هو الوقت الموضح في الصورة المرفقة؟"، أما بالنسبة لاختبار التقويم فقد طرحوا أسئلة بسيطة مثل "ما هو اليوم الذي يوافق رأس السنة الميلادية؟" وأسئلة صعبة مثل "ما هو اليوم رقم 153 من السنة؟".
وقال الباحثون: "إن قراءة الساعات وفهم التقويم يتطلب خطوات معرفية معقدة، وتحتاج إلى تمييز بصري دقيق – لمعرفة موضع عقارب الساعة وتخطيط التقويم – كما تحتاج إلى تفكير عددي دقيق لحساب عدد الأيام بين تاريخين".
وبشكل عام لم تُحقق نماذج الذكاء الاصطناعي نتائج مرضية، فقد قرأت الوقت على الساعة بشكل صحيح في أقل من 25% من الحالات، وواجهت صعوبة في فهم الساعات التي تحمل أرقاما رومانية أو العقارب التي تملك تصميما مُبتكرا بنفس القدر الذي واجهته مع الساعات التي تفتقر إلى عقرب الثواني، وهنا يشير الباحثون أن المشكلة قد تكمن في اكتشاف العقارب وتفسير الزوايا على ميناء الساعة.
ومن الجدير بالذكر أن نموذج "جيميني" حصل على أعلى درجة في اختبار قراءة الساعات، بينما تفوق نموذج "شات جي بي تي -4أو" في قراءة التقويم وتحديد الوقت بنسبة 80%، وبالمقابل فإن معظم نماذج اللغات الكبيرة الأخرى ارتكبت أخطاء في اختبار التقويم بنسبة 20% تقريبا.
إعلانوقال روهيت ساكسينا أحد مؤلفي الدراسة وطالب دكتوراه في كلية المعلوماتية بجامعة إدنبرة في بيان صادر عن الجامعة: "يستطيع معظم الناس معرفة الوقت واستخدام التقويمات في سن مبكرة، ولكن نتائجنا تُظهر الفجوة الكبيرة في قدرة الذكاء الاصطناعي على تنفيذ ما يُعتبر مهارات أساسية جدا للبشر، ويجب ألا نغفل عن هذه المشاكل في حال أردنا دمج أنظمة الذكاء الاصطناعي في التطبيقات الواقعية الحساسة للوقت مثل الجدولة والأتمتة والتكنولوجيا المساعدة".
وأضاف "رغم أن الذكاء الاصطناعي قادر على إنجاز أغلب واجباتك المنزلية، ولكن لا أنصحك بالاعتماد عليه في الالتزام بأي مواعيد نهائية."