سرعان ما أصبحت أدوات الذكاء الاصطناعي التوليدي جزءاً أساسياً من بيئة العمل الحديثة، حيث تساعد في عدد من مهام العمل التي تتراوح من صياغة التقارير وحتى تحليل جداول البيانات وغيرها. 

ووجدت دراسة عالمية أجرتها كاسبيرسكي أن 95% من المشاركين من كبار المسؤولين التنفيذيين يدركون أن أدوات الذكاء الاصطناعي التوليدي تُستخدم داخل مؤسساتهم، وكان أكثر من نصفهم (59%) قلقاً من مخاطر تسريب الموظفين لمعلومات حساسة دون قصد عند استخدام الذكاء الاصطناعي، لذا، يقدم خبراء كاسبرسكي نصائح حول كيفية تمكين المؤسسات من استخدام أدوات الذكاء الاصطناعي التوليدي بطريقة تقلل من المخاطر.

قال فلاديسلاف توشكانوف، مدير مجموعة تعلم الآلة لدى كاسبرسكي: «تمكن أدوات الذكاء الاصطناعي التوليدي الموظفين من تحقيق إنتاجية أعلى، حيث تساعد التكنولوجيا في تحليل البيانات وتنفيذ المهام الروتينية. ومع ذلك، يستخدم العديد من الأشخاص الذكاء الاصطناعي دون الحصول على الأذون المطلوبة من أصحاب العمل. مما قد يشكل مخاطراً كبيرة على المنظمة. فعلى سبيل المثال، يستمر تسريب البيانات بكونه مصدر قلق كبير في المجال. وعلاوة على ذلك، قد يحصل الموظفون على معلومات خاطئة ويتصرفون بناءً عليها نتيجة مغالطات الذكاء الاصطناعي. إذ يحدث ذلك عندما تقدم النماذج اللغوية الكبيرة معلومات خاطئة بشكل يبدو موثوقاً. ويمكن أن تكون هذه المغالطات خطيرة أكثر حتى عند استخدام الذكاء الاصطناعي التوليدي للمشورة حول كيفية إكمال مهام معينة في العمل.»

أصبحت مواجهة هذا التحدي ضرورة حتمية للأعمال حالياً. فقد كشف استطلاع آخر أجرته كاسبرسكي أن 40% من المشاركين في الشرق الأوسط و تركيا و أفريقيا يرون الذكاء الاصطناعي كأحد أفراد فريق العمل حالياً. وما يزيد من تعقيد الأمر هو مدى فعالية مصادر التهديد في تبني أدوات الذكاء الاصطناعي التوليدي لإنشاء هجمات هندسة اجتماعية أكثر إقناعاً لدى استهداف الأفراد. ويتضمن ذلك استخدامات مثل صياغة رسائل تصيد احتيالي مخصصة؛ وتوليد مقاطع تزييف عميق تحتوي أصواتاً، أو فيديو، أو نصوصاً واقعية تنتحل شخصيات الأفراد؛ ونشر حملات التضليل التي يمكن أن تؤثر على الرأي العام أو تحجب الحقيقة.

 

استطرد توشكانوف: «لا يعني ذلك وجوب منع المنظمات لأدوات الذكاء الاصطناعي التوليدي بشكل كامل. بل يجب على صناع القرار إجراء تقييم شامل للمخاطر لفهم أي أجزاء من روتين الأعمال اليومي يمكن أتمتتها باستخدام أدوات الذكاء الاصطناعي التوليدي دون رفع مستوى التهديدات التي تواجهها الشركات.» 

بذلك، يمكن للمؤسسات اعتماد نهج مركزي عندما يتعلق الأمر بتبني الذكاء الاصطناعي التوليدي. فمن الممكن الحصول على الخدمات عبر حسابات مؤسسية من مزودي الخدمات السحابية مع ضمان وجود جميع معايير الحماية اللازمة. ويمكن أن تشمل هذه المعايير مراقبة أي معلومات تعريف شخصية محتملة في الرسائل، فضلاً عن الإشراف العام. كما ينبغي على المنظمات تثقيف موظفيها حول الاستخدام المقبول للذكاء الاصطناعي التوليدي والطرق المناسبة للوصول إليه تحت إشراف الشركة.

يمكن للمؤسسات تحسين إنتاجية الموظفين بشكل كبير وزيادة رضاهم الوظيفي من خلال فهم فوائد ومخاطر استخدام الذكاء الاصطناعي التوليدي والتأكد من وجود التدابير الأمنية الضرورية لتفادي أي مخاطر محتملة. ويجب أن تتضمن القواعد العامة للموظفين عدم الكشف عن البيانات السرية لأدوات الذكاء الاصطناعي؛ وعدم الاعتماد على نصائحها في أي الحالات الحساسة؛ والتحقق من المعلومات؛ وتذكر أن البيانات المقدمة إلى روبوت المحادثة يمكن أن تتسرب. كما يجب التحقق من كون جميع الحواسيب والخوادم التي تعمل بأنظمة قائمة على النماذج اللغوية الكبيرة محمية بأدوات أمنية حديثة.

واختتم توشكانوف قوله: «قد لا يكون حظر أدوات مثل ChatGPT وسواها هو الخيار الأفضل. إذ يمكن استخدام الذكاء الاصطناعي التوليدي بشكل إيجابي من خلال إيجاد موقف متوازن بين الحذر الأشد من اللازم والحذر الأقل من اللازم. وعلى نطاق أوسع، يمكن للشراكات بين القطاعين العام والخاص أن تجعل الذكاء الاصطناعي التوليدي عامل تمكين أساسي يساعد في تنمية الأعمال، وزيادة الإنفاق على الابتكار، والإدارة السليمة للمخاطر.»

المصدر: بوابة الوفد

كلمات دلالية: أدوات الذکاء الاصطناعی التولیدی استخدام الذکاء الاصطناعی یمکن أن

إقرأ أيضاً:

الذكاء الاصطناعي يكتب ملاحظات المجتمع في منصة إكس

أبوظبي (الاتحاد) أحدثت منصة إكس التابعة لإيلون ماسك، بلا شك، تحولًا في آليات التحقق من المعلومات على وسائل التواصل الاجتماعي، عبر إطلاق ميزة "ملاحظات المجتمع"، التي وفّرت نظامًا جماعيًا يُمكّن المستخدمين من الإسهام بوجهات نظر متنوعة حول مدى موثوقية بعض المنشورات.

منصة إكس تعتزم السماح للذكاء الاصطناعي بكتابة هذه الملاحظات، وتهدف المنصة من خلال هذه الخطوة إلى تسريع نشر الملاحظات التوضيحية على المنشورات وتوسيع نطاقها، مع الحفاظ على الدقة والحيادية.

ميزة "ملاحظات المجتمع Community Notes" في منصة إكس تهدف إلى مكافحة المعلومات المضللة وتعزيز الشفافية، وذلك من خلال تمكين المستخدمين من إضافة ملاحظات توضيحية على المنشورات التي قد تحتوي على معلومات غير دقيقة أو مضللة.

كشفت منصة إكس عن أدوات تطوير جديدة تتيح للمبرمجين إنشاء "كتّاب ملاحظات آليين" بالاعتماد على الذكاء الاصطناعي، مشيرة إلى أن هذه الأدوات ستُستخدم حاليًا في وضع اختبار، ولن تُنشر أي ملاحظة مكتوبة بالذكاء الاصطناعي من دون مراجعة واعتماد.

هذه الميزة لا تزال قيد التجربة، ولن تُطرح للجمهور إلا بعد أسابيع من الاختبار والتقييم.

ومن المقرر قبول أول دفعة من "كُتّاب الملاحظات الآليين" في وقت لاحق من هذا الشهر، ليبدأ بعدها ظهور الملاحظات التي أُنشئت بالذكاء الاصطناعي أمام المستخدمين.

أوضحت منصة إكس أن هذه الميزة الجديدة قد تسهم في تطوير نماذج ذكاء اصطناعي أكثر دقة وأقل تحيّزًا، من خلال الاستفادة من تقييمات المستخدمين للملاحظات المنشورة، مما يخلق "دورة تحسين متواصلة" تعزز كفاءة تلك الميزة.

أخبار ذات صلة جلسة من «مَيْلِس» في «محمد بن زايد للذكاء الاصطناعي» «التقنية العليا» تمكّن طلبتها في مهارات الذكاء الاصطناعي

وستخضع الملاحظات التي تكتبها نماذج الذكاء الاصطناعي إلى تقييم أولي عبر نظام مفتوح المصدر وآلي يُقيّم مدى صلة الملاحظة بالموضوع، ويرصد إذا كانت تنطوي على إساءة أو غيره. ويعتمد هذا التقييم على بيانات سابقة من مساهمي مجتمع الملاحظات.

وأكدت منصة إكس أن "التحكم ما زال بيد البشر"، لكن دور العنصر البشري يبدو مقتصرًا على تقييم الملاحظات بعد نشرها، من خلال نظام التصويت والتغذية الراجعة.

ولتوفير الشفافية، سوف تُميّز كل ملاحظة أُنشئت بالذكاء الاصطناعي بوضوح عند عرضها للمستخدمين. كما أوضحت الشركة أن الذكاء الاصطناعي لن يُستخدم إلا على المنشورات التي طُلبت لها ملاحظات مجتمعية سابقًا، في حين تتجه المنصة مستقبلًا إلى توسيع نطاق استخدام الذكاء الاصطناعي ضمن نظام التحقق من المحتوى.

لكن هذه الخطوة لا تخلو من الجدل، فبحسب ورقة بحثية صدرت هذا الأسبوع عن فريق "Community Notes"، يوصى بأن يعمل الذكاء الاصطناعي جنباً إلى جنب مع البشر، خصوصاً طلاب الماجستير في القانون (LLM)، لتعزيز دقة المحتوى عبر التعلم المعزز ومراجعة بشرية نهائية قبل النشر. 
ويؤكد الباحثون: "هدفنا ليس خلق مساعد ذكي يوجه المستخدمين إلى ما يجب أن يعتقدوه، بل تمكينهم من التفكير النقدي وفهم الواقع بشكل أعمق".

بوجه عام، بينما تسعى  منصة إكس إلى تحسين الأداء والكفاءة عبر الذكاء الاصطناعي، تبقى الحاجة ملحة إلى رقابة بشرية واعية تكافح نشرالمعلومات الزائفة المقنّعة.

ولكن تبقى هناك أسئلة جوهرية، من أبرزها: هل ستكون الملاحظات التي يكتبها الذكاء الاصطناعي دقيقة بقدر تلك التي يكتبها البشر؟.

مقالات مشابهة

  • كلاود فلير تعلن عن أداة تحقق الربح من زيارات أدوات الذكاء الاصطناعي
  • الذكاء الاصطناعي يكتب ملاحظات المجتمع في منصة إكس
  • الهيئة اللبنانية للعقارات: للحد من مخاطر انهيار المباني
  • الذكاء الاصطناعي يتوقع نسبة تأهل العراق لكأس العالم 2026
  • حين يخلط وزير بين الرقمنة والذكاء الاصطناعي؟.. ادعى استعمال الذكاء الاصطناعي للحد من الهدر المدرسي 
  • الذكاء الاصطناعي في أمازون: فرصة جديدة أم تهديد للوظائف؟
  • دراسة: الإفراط في استخدام الهواتف المحمولة يؤدي لصغر حجم الدماغ وانخفاض ذكاء الأطفال
  • دراسة لـ«تريندز» تستعرض استخدام الذكاء الاصطناعي في الصحافة
  • أخنوش يدعو إلى حكامة رقمية لمواجهة مخاطر الذكاء الاصطناعي على سوق الشغل وتزييف الرأي العام
  • ممنوع الخروج وقت الذروة.. نصائح هاني الناظر لمواجهة حرارة الطقس