نصائح كاسبرسكي للحد من مخاطر الذكاء الاصطناعي التوليدي في بيئة العمل
تاريخ النشر: 1st, October 2024 GMT
سرعان ما أصبحت أدوات الذكاء الاصطناعي التوليدي جزءاً أساسياً من بيئة العمل الحديثة، حيث تساعد في عدد من مهام العمل التي تتراوح من صياغة التقارير وحتى تحليل جداول البيانات وغيرها.
ووجدت دراسة عالمية أجرتها كاسبيرسكي أن 95% من المشاركين من كبار المسؤولين التنفيذيين يدركون أن أدوات الذكاء الاصطناعي التوليدي تُستخدم داخل مؤسساتهم، وكان أكثر من نصفهم (59%) قلقاً من مخاطر تسريب الموظفين لمعلومات حساسة دون قصد عند استخدام الذكاء الاصطناعي، لذا، يقدم خبراء كاسبرسكي نصائح حول كيفية تمكين المؤسسات من استخدام أدوات الذكاء الاصطناعي التوليدي بطريقة تقلل من المخاطر.
قال فلاديسلاف توشكانوف، مدير مجموعة تعلم الآلة لدى كاسبرسكي: «تمكن أدوات الذكاء الاصطناعي التوليدي الموظفين من تحقيق إنتاجية أعلى، حيث تساعد التكنولوجيا في تحليل البيانات وتنفيذ المهام الروتينية. ومع ذلك، يستخدم العديد من الأشخاص الذكاء الاصطناعي دون الحصول على الأذون المطلوبة من أصحاب العمل. مما قد يشكل مخاطراً كبيرة على المنظمة. فعلى سبيل المثال، يستمر تسريب البيانات بكونه مصدر قلق كبير في المجال. وعلاوة على ذلك، قد يحصل الموظفون على معلومات خاطئة ويتصرفون بناءً عليها نتيجة مغالطات الذكاء الاصطناعي. إذ يحدث ذلك عندما تقدم النماذج اللغوية الكبيرة معلومات خاطئة بشكل يبدو موثوقاً. ويمكن أن تكون هذه المغالطات خطيرة أكثر حتى عند استخدام الذكاء الاصطناعي التوليدي للمشورة حول كيفية إكمال مهام معينة في العمل.»
أصبحت مواجهة هذا التحدي ضرورة حتمية للأعمال حالياً. فقد كشف استطلاع آخر أجرته كاسبرسكي أن 40% من المشاركين في الشرق الأوسط و تركيا و أفريقيا يرون الذكاء الاصطناعي كأحد أفراد فريق العمل حالياً. وما يزيد من تعقيد الأمر هو مدى فعالية مصادر التهديد في تبني أدوات الذكاء الاصطناعي التوليدي لإنشاء هجمات هندسة اجتماعية أكثر إقناعاً لدى استهداف الأفراد. ويتضمن ذلك استخدامات مثل صياغة رسائل تصيد احتيالي مخصصة؛ وتوليد مقاطع تزييف عميق تحتوي أصواتاً، أو فيديو، أو نصوصاً واقعية تنتحل شخصيات الأفراد؛ ونشر حملات التضليل التي يمكن أن تؤثر على الرأي العام أو تحجب الحقيقة.
استطرد توشكانوف: «لا يعني ذلك وجوب منع المنظمات لأدوات الذكاء الاصطناعي التوليدي بشكل كامل. بل يجب على صناع القرار إجراء تقييم شامل للمخاطر لفهم أي أجزاء من روتين الأعمال اليومي يمكن أتمتتها باستخدام أدوات الذكاء الاصطناعي التوليدي دون رفع مستوى التهديدات التي تواجهها الشركات.»
بذلك، يمكن للمؤسسات اعتماد نهج مركزي عندما يتعلق الأمر بتبني الذكاء الاصطناعي التوليدي. فمن الممكن الحصول على الخدمات عبر حسابات مؤسسية من مزودي الخدمات السحابية مع ضمان وجود جميع معايير الحماية اللازمة. ويمكن أن تشمل هذه المعايير مراقبة أي معلومات تعريف شخصية محتملة في الرسائل، فضلاً عن الإشراف العام. كما ينبغي على المنظمات تثقيف موظفيها حول الاستخدام المقبول للذكاء الاصطناعي التوليدي والطرق المناسبة للوصول إليه تحت إشراف الشركة.
يمكن للمؤسسات تحسين إنتاجية الموظفين بشكل كبير وزيادة رضاهم الوظيفي من خلال فهم فوائد ومخاطر استخدام الذكاء الاصطناعي التوليدي والتأكد من وجود التدابير الأمنية الضرورية لتفادي أي مخاطر محتملة. ويجب أن تتضمن القواعد العامة للموظفين عدم الكشف عن البيانات السرية لأدوات الذكاء الاصطناعي؛ وعدم الاعتماد على نصائحها في أي الحالات الحساسة؛ والتحقق من المعلومات؛ وتذكر أن البيانات المقدمة إلى روبوت المحادثة يمكن أن تتسرب. كما يجب التحقق من كون جميع الحواسيب والخوادم التي تعمل بأنظمة قائمة على النماذج اللغوية الكبيرة محمية بأدوات أمنية حديثة.
واختتم توشكانوف قوله: «قد لا يكون حظر أدوات مثل ChatGPT وسواها هو الخيار الأفضل. إذ يمكن استخدام الذكاء الاصطناعي التوليدي بشكل إيجابي من خلال إيجاد موقف متوازن بين الحذر الأشد من اللازم والحذر الأقل من اللازم. وعلى نطاق أوسع، يمكن للشراكات بين القطاعين العام والخاص أن تجعل الذكاء الاصطناعي التوليدي عامل تمكين أساسي يساعد في تنمية الأعمال، وزيادة الإنفاق على الابتكار، والإدارة السليمة للمخاطر.»
المصدر: بوابة الوفد
كلمات دلالية: أدوات الذکاء الاصطناعی التولیدی استخدام الذکاء الاصطناعی یمکن أن
إقرأ أيضاً:
كيف وقع الذكاء الاصطناعي ضحية كذبة أبريل؟
اعتاد الصحفي بن بلاك نشر قصة كاذبة في الأول من أبريل/نيسان من كل عام على موقعه الإخباري المحلي "كومبران لايف" (Cwmbran Life)، ولكنه صُدم عندما اكتشف أن الذكاء الاصطناعي الخاص بغوغل يعتبر الأكاذيب التي كتبها حقيقة ويظهرها في مقدمة نتائج البحث، وفقا لتقرير نشره موقع "بي بي سي".
وبحسب التقرير فإن بلاك البالغ من العمر 48 عاما بدأ بنشر قصصه الزائفة منذ عام 2018، وفي عام 2020 نشر قصة تزعم أن بلدة كومبران في ويلز سُجلت في موسوعة غينيس للأرقام القياسية لامتلاكها أكبر عدد من الدوارات المرورية لكل كيلومتر مربع.
ورغم أنه عدل صياغة المقال في نفس اليوم ولكن عندما بحث عنه في الأول من أبريل/نيسان، صُدم وشعر بالقلق عندما رأى أن معلوماته الكاذبة تستخدمها أداة الذكاء الاصطناعي من غوغل وتقدمها للمستخدمين على أنها حقيقة.
يُذكر أن بلاك قرر كتابة قصص كاذبة في يوم 1 أبريل/نيسان من كل عام بهدف المرح والتسلية، وقال إن زوجته كانت تساعده في إيجاد الأفكار، وفي عام 2020 استلهم فكرة قصته من كون كومبران بلدة جديدة حيث يكون ربط المنازل بالدوارات من أسهل طرق البناء والتنظيم.
وقال بلاك: "اختلقت عددا من الدوارات لكل كيلومتر مربع، ثم أضفت اقتباسا مزيفا من أحد السكان وبعدها ضغطت على زر نشر، ولقد لاقت القصة استحسانا كبيرا وضحك الناس عليها".
إعلانوبعد ظهر ذلك اليوم أوضح بلاك أن القصة كانت عبارة عن "كذبة نيسان" وليست خبرا حقيقيا، ولكن في اليوم التالي شعر بالانزعاج عندما اكتشف أن موقعا إخباريا وطنيا نشر قصته دون إذنه، ورغم محاولاته في إزالة القصة فإنها لا تزال منشورة على الإنترنت.
وقال بلاك: "لقد نسيت أمر هذه القصة التي مر عليها 5 سنوات، ولكن عندما كنت أبحث عن القصص السابقة في يوم كذبة نيسان من هذا العام، تفاجأت بأن أداة غوغل للذكاء الاصطناعي وموقعا إلكترونيا لتعلم القيادة يستخدمان قصتي المزيفة ويظهران أن كومبران لديها أكبر عدد للدوارات المرورية في العالم".
وأضاف "إنه لمن المخيف حقا أن يقوم شخص ما في أسكتلندا بالبحث عن الطرق في ويلز باستخدام غوغل ويجد قصة غير حقيقية" (..) "إنها ليست قصة خطيرة ولكن الخطير حقا هو كيف يمكن للأخبار الكاذبة أن تنتشر بسهولة حتى لو كانت من مصدر إخباري موثوق، ورغم أنني غيرتها في نفس اليوم فإنها لا تزال تظهر على الإنترنت -فالإنترنت يفعل ما يحلو له- إنه أمر جنوني".
ويرى بلاك أن الذكاء الاصطناعي أصبح يشكل تهديدا للناشرين المستقلين، حيث تستخدم العديد من الأدوات محتواهم الأصلي دون إذن وتعيد تقديمه بأشكال مختلفة ليستفيد منها المستخدمون، وهذا قد يؤثر سلبا على زيارات مواقعهم.
وأشار إلى أن المواقع الإخبارية الكبرى أبرمت صفقات وتعاونت مع شركات الذكاء الاصطناعي، وهو أمر غير متاح له كناشر مستقل.
ورغم أن بلاك لم ينشر قصة كاذبة هذا العام بسبب انشغاله، فإن هذه التجربة أثرت عليه وجعلته يقرر عدم نشر أي قصص كاذبة مرة أخرى.