تحذير ألماني من مخاطر تكنولوجيا الذكاء الاصطناعي
تاريخ النشر: 3rd, September 2023 GMT
يمكن لتطبيقات محادثة الذكاء الاصطناعي المعروفة باسم "شات بوت" القيام بالكثير من الوظائف المفيدة مثل كتابة الرسائل والملخصات والمقالات والقصص بأسلوب كتابة محددة، وكذلك كتابة أكواد البرمجيات.
في المقابل فإن تقنيات الذكاء الاصطناعي تفتح الباب أمام تزايد مخاطر الجرائم المعلوماتية.
وفي أحدث تقرير له قال مكتب أمن المعلومات الاتحادي الألماني إن التكنولوجيا الجديدة "تنطوي على مخاطر جديدة لأمن المعلومات وتزيد المخاطر المحتملة لبعض التهديدات المعروفة لأمن تكنولوجيا المعلومات".
يذكر أنه وراء كل تطبيق محادثة ذكاء اصطناعي نموذج لغة يمكنه معالجة اللغة الطبيعية المكتوبة باستخدام نمط آلي محدد.
ومن أشهر نماذج اللغة نموذج جي.بي.تي الذي طورته شركة أوبن أيه.آي الأمريكية ونموذج بالم من شركة غوغل والمستخدم في منصة المحادثة بارد، في حين يستخدم نموذج جي.بي.تي في منصتي المحادثة شات جي.بي.تي الشهيرة وبنج التابعة لإمبراطورية البرمجيات الأمريكية مايكروسوفت.
وبحسب مكتب أمن معلومات الاتحاد الألماني فإن التهديدات المعروفة تتمثل في إمكانية تكثيف نماذج لغة الذكاء الاصطناعي واستخدامها في تطوير أو تحديث برامج تجسس أفضل، وكذلك إنشاء رسائل البريد الإلكترونية العشوائية أو الاحتيالية التي تستغل السمات الإنسانية للمستخدمين مثل الرغبة في مد يد العون أو الثقة أو حتى الخوف والمعروفة باسم "الهندسة الاجتماعية".
كما يمكن لمناذج اللغة تعديل أسلوب كتابة نص معين لكي يتشابه مع أسلوب كتابة شخص أو مؤسسة محددة وبالتالي استغلاله في الاحتيال على آخرين.
وأيضا تخلو الرسائل العشوائية والاحتيالية التي يتم كتابتها باستخدام تقنيات الذكاء الاصطناعي من الأخطاء الإملائية والنحوية الشائعة في مثل هذا النوع من رسائل البريد الإلكتروني، لتصبح تلك الرسائل أكثر إقناعاً.
كما حذر مكتب أمن المعلومات الاتحادي من إمكانية استخدام مجرمي الإنترنت والقراصنة لأي تسجيل صوتي لإنتاج محادثات مزيفة وسرقة المعلومات المهمة من الضحايا.
وإلى جانب كل هذا يحذر خبراء أمن المعلومات من إمكانية استغلال نماذج اللغة لإنتاج أخبار مزيفة ورسائل للتحريض على الكراهية أو في الدعاية السياسية.
لذلك يجب على مستخدمي الأجهزة الإلكترونية توخي الحذر من المحتوى المنتج باستخدام الذكاء الاصطناعي. ونظرا لخلوها غالبا من الأخطاء اللغوية فإن النصوص المكتوبة باستخدام تقنيات الذكاء الاصطناعي تعطي انطباعاً قوياً بأنها نصوص بشرية حقيقية، وبالتالي تصبح محل ثقة، حتى لو لم تكن مناسبة وتحتوي على معلومات خطأ أو حقائق تم التلاعب فيها.
المصدر: موقع 24
كلمات دلالية: التغير المناخي محاكمة ترامب أحداث السودان النيجر مانشستر سيتي الحرب الأوكرانية عام الاستدامة الملف النووي الإيراني الذكاء الاصطناعي الذكاء الصناعي الذکاء الاصطناعی أمن المعلومات
إقرأ أيضاً:
نسب احتيال تصل 60%.. الذكاء الاصطناعي يهدد الأمن الرقمي
تابع أحدث الأخبار عبر تطبيق
يواصل الذكاء الاصطناعي تحقيق تقدم مذهل في مختلف المجالات، إلا أن هناك جانبًا مظلمًا لهذا التطور، خاصة فيما يتعلق بالمخاطر الأمنية التي قد يتسبب فيها، فقد أظهرت دراسة حديثة أن واجهة البرمجة الصوتية الخاصة بنموذج ChatGPT-4o من OpenAI قد تُستغل من قبل مجرمي الإنترنت لتنفيذ عمليات احتيال مالي، ووفقًا لما أوردته "البوابة العربية للأخبار التقنية"، فقد تراوحت معدلات نجاح هذه العمليات بين منخفضة ومتوسطة، مما يسلط الضوء على الحاجة الماسة لتطوير آليات أمان أكثر تطورًا.
استخدامات غير مشروعة لنموذج ChatGPT-4oيُعتبر ChatGPT-4o أحدث نموذج من OpenAI الذي يجمع بين قدرات الذكاء الاصطناعي في فهم وتحليل النصوص والصوت والصور، مما يمنحه إمكانيات هائلة، إلا أن هذه القدرات، حسب ما ذكر باحثون من جامعة إلينوي الأمريكية، تُستغل أحيانًا في عمليات احتيال، حيث تُستخدم أدوات تكنولوجيا الصوت التي يعتمد عليها النموذج في اختراق أنظمة المصادقة الثنائية، وإجراء عمليات تحويل مالية مزورة، فضلاً عن سرقة البيانات الحساسة مثل حسابات البريد الإلكتروني ووسائل التواصل الاجتماعي.
هذه الأدوات البرمجية التي تستخدم الصوت، تمكن المهاجمين من التلاعب في البيانات وإدخال التعليمات اللازمة عبر الويب، ما يسمح لهم بتجاوز بعض القيود التي وضعتها OpenAI للحد من إساءة استخدام النموذج، وعلى الرغم من أن النموذج يُرفض غالبًا التعامل مع البيانات الحساسة، فإن الباحثين نجحوا في إيجاد طرق لتحفيزه على التجاوب مع هذه المحاولات.
نتائج الدراسة: عمليات احتيال "رخيصة" وفعالةفي التجارب التي أُجريت، أظهر الباحثون أن معدلات نجاح عمليات الاحتيال تراوحت بين 20% و60%، مع حاجة كل محاولة إلى نحو 26 خطوة عبر المتصفح لإتمام العملية، ما استغرق في الحالات الأكثر تعقيدًا حوالي 3 دقائق فقط، ومن حيث التكلفة، أظهرت النتائج أن تكلفة تنفيذ عملية احتيال واحدة كانت منخفضة للغاية، إذ تراوحت بين 75 سنتًا أميركيًا للعمليات البسيطة مثل سرقة بيانات حسابات Gmail، و2.51 دولار فقط في عمليات التحويل المصرفي الأكثر تعقيدًا.
استجابة OpenAI والتحديات المستقبليةوفي رد فعلها على هذه الدراسة، أكدت OpenAI أنها تبذل جهودًا مستمرة لتحسين الأمان في نماذجها المستقبلية، وأشارت إلى أن النموذج الأحدث "o1-preview" يتمتع بقدرات متقدمة في مقاومة محاولات الاحتيال، حيث حقق تقييم أمان بنسبة 93% مقارنة بـ71% في النموذج السابق، كما أضافت الشركة أنها ملتزمة بتطوير آليات أكثر قوة لمنع الاستخدامات الضارة، بما في ذلك تقييد توليد الأصوات في نموذج GPT-4o إلى مجموعة أصوات مصرح بها فقط لتجنب التزييف الصوتي.