أمن المعلومات الاتحادي الألماني يحذر من مخاطر تكنولوجيا الذكاء الاصطناعي
تاريخ النشر: 4th, September 2023 GMT
يمكن لتطبيقات محادثة الذكاء الاصطناعي المعروفة باسم "شات بوت" القيام بالكثير من الوظائف المفيدة مثل كتابة الرسائل والملخصات والمقالات والقصص بأسلوب كتابة محددة، وكذلك كتابة أكواد البرمجيات.
في المقابل فإن تقنيات الذكاء الاصطناعي تفتح الباب أمام تزايد مخاطر الجرائم المعلوماتية.
وفي أحدث تقرير له، قال مكتب أمن المعلومات الاتحادي الألماني إن التكنولوجيا الجديدة "تنطوي على مخاطر جديدة لأمن المعلومات وتزيد المخاطر المحتملة لبعض التهديدات المعروفة لأمن تكنولوجيا المعلومات".
يذكر أنه وراء كل تطبيق محادثة ذكاء اصطناعي نموذج لغة يمكنه معالجة اللغة الطبيعية المكتوبة باستخدام نمط آلي محدد.
ومن أشهر نماذج اللغة نموذج جي.بي.تي الذي طورته شركة أوبن إيه.آي الأمريكية، ونموذج بالم من شركة غوغل والمستخدم في منصة المحادثة بارد، في حين يستخدم نموذج جي.بي.تي في منصتي المحادثة شات جي.بي.تي الشهيرة وبنج التابعة لإمبراطورية البرمجيات الأمريكية مايكروسوفت.
وبحسب مكتب أمن معلومات الاتحاد الألماني فإن التهديدات المعروفة تتمثل في إمكانية تكثيف نماذج لغة الذكاء الاصطناعي واستخدامها في تطوير أو تحديث برامج تجسس أفضل، وكذلك إنشاء رسائل البريد الإلكترونية العشوائية أو الاحتيالية التي تستغل السمات الإنسانية للمستخدمين مثل الرغبة في مد يد العون أو الثقة أو حتى الخوف والمعروفة باسم "الهندسة الاجتماعية".
كما يمكن لنماذج اللغة تعديل أسلوب كتابة نص معين لكي يتشابه مع أسلوب كتابة شخص أو مؤسسة محددة، وبالتالي استغلاله في الاحتيال على آخرين.
وأيضاً تخلو الرسائل العشوائية والاحتيالية التي تتم كتابتها باستخدام تقنيات الذكاء الاصطناعي من الأخطاء الإملائية والنحوية الشائعة في مثل هذا النوع من رسائل البريد الإلكتروني، لتصبح تلك الرسائل أكثر إقناعاً.
كما حذر مكتب أمن المعلومات الاتحادي من إمكانية استخدام مجرمي الإنترنت والقراصنة لأي تسجيل صوتي لإنتاج محادثات مزيفة وسرقة المعلومات المهمة من الضحايا.
وإلى جانب كل هذا يحذر خبراء أمن المعلومات من إمكانية استغلال نماذج اللغة لإنتاج أخبار مزيفة ورسائل للتحريض على الكراهية أو في الدعاية السياسية.
لذلك يجب على مستخدمي الأجهزة الإلكترونية توخي الحذر من المحتوى المنتج باستخدام الذكاء الاصطناعي. ونظراً لخلوها غالباً من الأخطاء اللغوية، فإن النصوص المكتوبة باستخدام تقنيات الذكاء الاصطناعي تعطي انطباعاً قوياً بأنها نصوص بشرية حقيقية، وبالتالي تصبح محل ثقة، حتى لو لم تكن مناسبة وتحتوي على معلومات خطأ أو حقائق تم التلاعب فيها.
المصدر: أخبارنا
كلمات دلالية: الذکاء الاصطناعی أمن المعلومات
إقرأ أيضاً:
محاكمة أشباح الذكاء الاصطناعي
لا يمكن إنكار إيجابيات التقدم التكنولوجي الكثيرة، كما لا يمكن تجاهل سلبياتها المتمثلة في تعطيل الكثير من المهارات والكفاءات البشرية، فحين ظهرت الآلات الحاسبة ازداد اعتماد الإنسان عليها متجاوزا تنمية مهارات الحساب وحل المعادلات الرياضية، وحين تطورت أجهزة الهاتف المحمولة استغنى كثير من الناس عن الساعات والمذكرات اليومية والتقويم، بل حتى الاستدلال الجغرافي المكاني وتحديد المواقع توقفا اعتمادا على التطبيقات الذكية لتحديد ومسح المواقع جغرافيا، كما استعاض الإنسان بذاكرة الأجهزة المحمولة عن ذاكرته الواقعية الحيّة.
ويأتي الذكاء الاصطناعي ليحمل عنا عبء الكثير من المسؤوليات توفيرا للجهد والمال، وليسرق منا -في ذات الوقت-كثيرا من المهارات الحياتية والكفاءات المعرفية، تنسيق الكتابة والتدقيق والتصحيح الإملائي، مراجعة وتلخيص الكتب الموسوعية والمصادر المعرفية، الترجمة والعروض المصوّرة للأفكار والتصورات البحثية والمشاريع، كتابة الرسائل وصياغة الخطب، جدولة الأعمال وتنسيقها والتذكير بأوقاتها وفقا لأولوية كل منها، كل هذه الأشكال من الراحة الرقمية أسلمت الإنسان إلى الدعة مستعيضا بالآلة عن ذاته، وعن ذاته تحديدا بذات رقمية ظن بها القدرة على تمثيله خير تمثيل في أي معرض بأي زمان ومكان.
وهذه الصورة ليست محض صورة ذهنية نمطية متخيلة لما يمكن أن يفعل الذكاء الاصطناعي ببعض عشاقه ومريديه، بل هي واقع صرنا نعايشه في كثير من المواقف ومنها ما حدث حاليا حينما استشاطت قاضية في محكمة استئناف بولاية نيويورك غضبًا بعد محاولة أحد المُدّعين استخدام مقطع رمزي مُصمم بواسطة الذكاء الاصطناعي للدفاع عن قضيته، متسببا بحالة من البلبلة داخل قاعة المحكمة ظنا من القضاة بأنه يقدم حجته شخصيا أو عن طريق محاميه، لكن الرجل ويدعى جيروم دي وال لديه محامٍ، كان يأمل أن تُقدم الصورة الرمزية حُجة مُحكمة، معتذرا لاحقًا كتابيًا للمحكمة، قائلاً إنه لم يقصد أي ضرر، وفقًا لوكالة أسوشيتد برس، إنما حاول جاهدا إنشاء نسخة رقمية طبق الأصل تشبهه، لكنه لم يتمكن من القيام بذلك قبل جلسة الاستماع، وقال إنه يأمل أن يقدم نموذج الذكاء الاصطناعي حججًا أكثر دقة دون التلعثم في الكلمات أو التذمر مما قد يصدر عن الإنسان الطبيعي!
إن غضب القاضية وصدمة الحضور بذلك انعكاس لصدمة الجميع من تسارع التطور في عالم الذكاء الاصطناعي، ذلك التطور الذي قد تتعطل معه الكثير من القدرات والمهارات البشرية التي لا يمكن للآلة تعويضها بأي حال من الأحوال مهما تطورت برمجياتها وحُدِّثت مُدخلاتها المعرفية، كما أنها صدمة القلق القادم من قدرة الذكاء الاصطناعي على التضليل بصنع النسخ المطابقة للواقع في مجالات مختلفة، لكن مبلغ الصدمة أن تتمثل إنسانا كاملا بمشاعره ومخاوفه، وتبريراته ومنطقه، في قدرتها (إن حصلت) على الربط والتحليل والاستنتاج والجدل وحتى التقاضي، ثم إن كانت قاعدة البيانات لكل هذه البرمجيات موجهة بشريا فكيف يمكن توافر ضمانات لاعتماد برمجيات عادلة غير منحازة ولا مؤدلجة؟ ثم خطورة ورعب الوجه الآخر لهذه التقنيات حين تكون مدفوعة بسلطة مادية أو نفوذ سياسي يحركها وفقا للمستهدف من مساع ومصالح.
هل سيكون هذه المشهد من المحكمة واستخدام الناطق البديل بالذكاء الاصطناعي -بعد تغذيته بالمعلومات والحجج- مشهدا طبيعيا بعد أمد؟ وهل يمكن للتقاضي ذاته بكل أطرافه أن يشهد هذه الرقمنة الصادمة في حديّتِها وعدم استيعابها للحضور البشري الواقعي؟ هل نتحول مع عالم البرمجيات والشفرات البرمجية إلى مجرد أرقام تعبث بها الآلات وتحركها المصالح الاقتصادية؟
ختاما: يقينا ليست هذه التساؤلات أول المطروح في عالم التقنية الحديثة والذكاء الاصطناعي والثورة الرقمية، ولن تكون الأخيرة بالضرورة، لكنها نافذة نحاول من خلالها تلمس الثابت والمتحول في هذه اللعبة المعاصرة الآخذة بأعطاف المستقبل إلى عالم مجهول نترقبه، ولا ندرك كنه تفاصيله بعد، لكننا نتمنى استبقاء الثابت القيمي والأخلاقي في هذه المعادلة الرقمية معقدة الأطراف.
حصة البادية أكاديمية وشاعرة عمانية