أمن المعلومات الاتحادي الألماني يحذر من مخاطر تكنولوجيا الذكاء الاصطناعي
تاريخ النشر: 4th, September 2023 GMT
يمكن لتطبيقات محادثة الذكاء الاصطناعي المعروفة باسم "شات بوت" القيام بالكثير من الوظائف المفيدة مثل كتابة الرسائل والملخصات والمقالات والقصص بأسلوب كتابة محددة، وكذلك كتابة أكواد البرمجيات.
في المقابل فإن تقنيات الذكاء الاصطناعي تفتح الباب أمام تزايد مخاطر الجرائم المعلوماتية.
وفي أحدث تقرير له، قال مكتب أمن المعلومات الاتحادي الألماني إن التكنولوجيا الجديدة "تنطوي على مخاطر جديدة لأمن المعلومات وتزيد المخاطر المحتملة لبعض التهديدات المعروفة لأمن تكنولوجيا المعلومات".
يذكر أنه وراء كل تطبيق محادثة ذكاء اصطناعي نموذج لغة يمكنه معالجة اللغة الطبيعية المكتوبة باستخدام نمط آلي محدد.
ومن أشهر نماذج اللغة نموذج جي.بي.تي الذي طورته شركة أوبن إيه.آي الأمريكية، ونموذج بالم من شركة غوغل والمستخدم في منصة المحادثة بارد، في حين يستخدم نموذج جي.بي.تي في منصتي المحادثة شات جي.بي.تي الشهيرة وبنج التابعة لإمبراطورية البرمجيات الأمريكية مايكروسوفت.
وبحسب مكتب أمن معلومات الاتحاد الألماني فإن التهديدات المعروفة تتمثل في إمكانية تكثيف نماذج لغة الذكاء الاصطناعي واستخدامها في تطوير أو تحديث برامج تجسس أفضل، وكذلك إنشاء رسائل البريد الإلكترونية العشوائية أو الاحتيالية التي تستغل السمات الإنسانية للمستخدمين مثل الرغبة في مد يد العون أو الثقة أو حتى الخوف والمعروفة باسم "الهندسة الاجتماعية".
كما يمكن لنماذج اللغة تعديل أسلوب كتابة نص معين لكي يتشابه مع أسلوب كتابة شخص أو مؤسسة محددة، وبالتالي استغلاله في الاحتيال على آخرين.
وأيضاً تخلو الرسائل العشوائية والاحتيالية التي تتم كتابتها باستخدام تقنيات الذكاء الاصطناعي من الأخطاء الإملائية والنحوية الشائعة في مثل هذا النوع من رسائل البريد الإلكتروني، لتصبح تلك الرسائل أكثر إقناعاً.
كما حذر مكتب أمن المعلومات الاتحادي من إمكانية استخدام مجرمي الإنترنت والقراصنة لأي تسجيل صوتي لإنتاج محادثات مزيفة وسرقة المعلومات المهمة من الضحايا.
وإلى جانب كل هذا يحذر خبراء أمن المعلومات من إمكانية استغلال نماذج اللغة لإنتاج أخبار مزيفة ورسائل للتحريض على الكراهية أو في الدعاية السياسية.
لذلك يجب على مستخدمي الأجهزة الإلكترونية توخي الحذر من المحتوى المنتج باستخدام الذكاء الاصطناعي. ونظراً لخلوها غالباً من الأخطاء اللغوية، فإن النصوص المكتوبة باستخدام تقنيات الذكاء الاصطناعي تعطي انطباعاً قوياً بأنها نصوص بشرية حقيقية، وبالتالي تصبح محل ثقة، حتى لو لم تكن مناسبة وتحتوي على معلومات خطأ أو حقائق تم التلاعب فيها.
المصدر: أخبارنا
كلمات دلالية: الذکاء الاصطناعی أمن المعلومات
إقرأ أيضاً:
«أبل» تؤجل دمج أحد خدماتها بـ«الذكاء الاصطناعي» حتى 2026.. ما السبب؟
أعلنت شركة “أبل” تأجيل إطلاقها النسخة الجديدة من مساعدها الصوتي “سيري”، التي تعتمد على تقنيات الذكاء الاصطناعي، مشيرة إلى أن “المميزات المتقدمة التي تعمل عليها تحتاج إلى مزيد من الوقت قبل أن تصبح جاهزة للاستخدام”.
وقالت الشركة في بيان: “نهدف إلى منح سيري قدرة أكبر على فهم سياق الاستخدام الشخصي للمستخدم، إضافة إلى تمكينه من تنفيذ الأوامر داخل التطبيقات المختلفة، لكننا أدركنا أن تحقيق ذلك سيستغرق وقتاً أطول مما كنا نتوقعه”.
هذا”وجاء الإعلان بعد تقرير، نشرته بلومبرغ في 14 فبراير، كشفت فيه أن “أبل كانت تواجه صعوبات في تطوير الميزات الجديدة لمساعدها الصوتي”.
وكانت الشركة قد كشفت، لأول مرة، عن “إصدار سيري المطور خلال مؤتمرها السنوي للمطورين WWDC 2024 في يونيو 2024، لكن التحديات التقنية والإدارية دفعتها إلى تأجيل الإطلاق”.
و”تخطط الشركة تخطط لإطلاق “سيري” الجديد في مايو 2025، إلا أن الموعد أُرجئ مجدداً بعد أن كانت التوقعات السابقة تشير إلى “دمج الميزة ضمن تحديث iOS 18.4، المقرر طرحه في أبريل”.
ووفق التقرير، “يهدف التحديث المرتقب إلى جعل “سيري” أكثر قدرة على التعامل مع الأوامر الصوتية المعقدة، وذلك عبر ميزتين رئيسيتين، وهما “السياق الشخصي” (Personal Context)، والتي تسمح لـ”سيري” بالوصول إلى بيانات المستخدم، مثل جداول المواعيد والتطبيقات المستخدمة، مما يساعده في تقديم إجابات أكثر دقة وتنفيذ الأوامر بشكل أكثر كفاءة، بينما الميزة الثانية تتمثل في “نوايا التطبيقات” (App Intents)، وهي آلية جديدة تمكن “سيري” من التحكم في التطبيقات بشكل أكثر تفصيلاً عبر جميع أنظمة أبل، مما يمنح المستخدم تجربة أكثر سلاسة في تنفيذ المهام داخل التطبيقات المختلفة، سواء كانت تطبيقات أبل أو تطبيقات الطرف الثالث، دون أن يحتاج المستخدم لفتح التطبيق يدويا بنفسه”.
ووفقاً لـ “بلومبرغ” فإن “فريق الذكاء الاصطناعي في “أبل” يواجه مشكلات تتعلق بالإدارة والهندسة التقنية، وهو ما أدى إلى تأخير المشروع”.
آخر تحديث: 8 مارس 2025 - 20:00