الذكاء الاصطناعي أصبح زميلك في العمل.. هل يمكنك الوثوق به؟
تاريخ النشر: 1st, September 2024 GMT
أصبح استخدام أدوات الذكاء الاصطناعي مثل شات جي بي تي (ChatGPT) من شركة "أوبن إيه آي" (OpenAI) وكوبايلوت (Copilot) من مايكروسوفت (Microsoft) جزءا من الحياة اليومية في الأعمال.
وتسارُع تطور أدوات الذكاء الاصطناعي يثير مخاوف من أن هذه التكنولوجيا قد تفتح الباب أمام قضايا متعددة تتعلق بالخصوصية والأمان، خاصة في أماكن العمل.
في المقابل، مع شعور قادة الأعمال بالضغط المتزايد لتنفيذ الذكاء الاصطناعي، فإن إنشاء الثقة وفهم كيفية تأثير الذكاء الاصطناعي على سير العمل مع الموظفين أمر بالغ الأهمية للاستفادة من إمكاناته الكاملة في الشركة.
خصوصية الموظفين في قبضة الذكاء الاصطناعيفي مايو/أيار الماضي، أطلق ناشطون -يتبنون حماية الخصوصية- على أداة "ريكول" (Recall) الجديدة من مايكروسوفت لقب "كابوس الخصوصية"، بسبب قدرتها على أخذ لقطات شاشة للحاسوب كل بضع ثوان. وقد لفتت هذه الميزة انتباه هيئة تنظيم المعلومات في المملكة المتحدة، التي تطالب شركة مايكروسوفت بالكشف عن المزيد بشأن أمان المنتج الذي سيتم إطلاقه قريبا في "كوبايلوت بلس" (+Copilot).
وعلى صعيد مواز، تزداد المخاوف من "شات جي بي تي"، الذي أظهر قدرات أخذ لقطات الشاشة في تطبيقه الجديد الذي سيتم إطلاقه على نظام "ماك أو إس" (macOS)، الذي يقول خبراء الخصوصية إنه قد يؤدي إلى التقاط بيانات حساسة.
ومن هذا المنطلق، قام مجلس النواب الأميركي بحظر استخدام كوبايلوت بين الموظفين، بعد أن عدّه مكتب الأمن السيبراني خطرا على المستخدمين بسبب "تهديد تسريب بيانات مجلس النواب إلى خدمات سحابية غير معتمدة من المجلس".
وفي الوقت نفسه، حذرت شركة تحليل السوق غارتنر من أن استخدام كوبايلوت في "مايكروسوفت أوفيس 365" يكشف عن المخاطر المتعلقة بتسريب البيانات والمحتوى الحساس داخليا وخارجيا. والشهر الماضي، اضطرت غوغل إلى إجراء تعديلات على ميزتها الجديدة في البحث "إيه آي أوفرفيوز" (AI Overviews)، بعد انتشار لقطات شاشة لإجابات مريبة ومضللة على الاستفسارات.
وبالنسبة لأولئك الذين يستخدمون الذكاء الاصطناعي التوليدي في العمل، فإن أحد أكبر التحديات هو خطر تعريض البيانات الحساسة للكشف عن غير قصد.
وفي هذا الصدد، يقول كامدن وولفن، رئيس مجموعة الذكاء الاصطناعي في شركة "جي آر سي إنترناشونال غروب" لإدارة المخاطر، إن معظم أنظمة الذكاء الاصطناعي التوليدي هي في الأساس "إسفنجات كبيرة"، تمتص كميات هائلة من المعلومات من الإنترنت لتدريب نماذج اللغة الخاصة بها.
تتمحور المخاوف حول أدوات الذكاء الاصطناعي التي قد تُستخدم لمراقبة الموظفين، مما قد ينتهك خصوصيتهم. وتُشير ميزة ريكول من مايكروسوفت إلى أن "لقطاتك الخاصة تبقى محصورة في حاسوبك" و"أنت دائما تتحكم في الخصوصية التي يمكنك الوثوق بها".
ومع ذلك، يقول ستيف إلكوك، الرئيس التنفيذي والمؤسس لشركة إليمنت سويت للبرمجيات، "لا يبدو أن هناك وقتا طويلا قبل أن نتمكن من استخدام هذه التكنولوجيا لمراقبة الموظفين".
الثقة هي أساس أماكن العمل الحديثةمن جهته، يشدد مايكل بوش، الرئيس التنفيذي لشركة "غريت بليس تو وورك" وهي هيئة عالمية مختصة بثقافة العمل، على الدور المحوري الذي يلعبه الذكاء الاصطناعي في ربط الموظفين والمنظمات معا. ويقول إن الثقة أكبر من كونها مفهوما مجردا، فهي ضرورية لبيئة يشعر فيها الجميع بالتقدير والاستماع.
ويضيف بوش: "إذا كان بإمكاني خلق خلفية للعالم في الوقت الحالي، سأكتب كلمة الثقة بأكبر حجم ممكن. هذا هو محور النقاش حول الذكاء الاصطناعي وديناميكيات مكان العمل. يجب على الموظفين أن يفهموا كيف يؤثر الذكاء الاصطناعي على سير عملهم ليتمكنوا من تبني إمكانياته بالكامل، ويجب أن تمتد ثقافة الثقة هذه إلى بناء الموثوقية في أنظمة الذكاء الاصطناعي".
وحسب المصدر، عندما يثق الموظفون في النية الكامنة وراء الذكاء الاصطناعي، فإنهم يكونون أكثر احتمالا لتبنيه والتعاون معه. يمكن أن تجعل التغييرات الناس يخافون من المجهول، لكنهم لن يهلعوا بشأن أمان وظائفهم وأمنهم المالي إذا كانت قاعدة الثقة موجودة بالفعل. وبدلا من ذلك، سيرغبون في معرفة المزيد.
رغم أن تقنيات الذكاء الاصطناعي أصبحت شائعة في أماكن العمل، فإنها تثير مخاوف تتعلق بالخصوصية عند مشاركة معلومات حساسة. ومن المهم حماية هذه المعلومات، لأن هذه الأنظمة تتعلم من البيانات التي تتلقاها. وهنا سنذكر أهم اعتبارات رئيسية يجب على أصحاب العمل مراعاتها لتحقيق التوازن بين الذكاء الاصطناعي وخصوصية الموظفين:
تدابير أمن البياناتتعتبر تدابير أمان البيانات من الاعتبارات الأساسية عند تنفيذ الذكاء الاصطناعي في مكان العمل، إذ تجب حماية معلومات الموظفين وخاصة البيانات الحساسة. كما ينبغي لأصحاب العمل التأكد من أن أنظمة الذكاء الاصطناعي تحتوي على تدابير أمان قوية، ويتضمن ذلك تشفير البيانات وضوابط الوصول والتدقيقات الأمنية الدورية.
الشفافيةتعتبر الشفافية أساسية في معالجة مخاوف الموظفين المتعلقة بتكنولوجيا الذكاء الاصطناعي، فيجب على أصحاب العمل أن يكونوا منفتحين وشفافين بشأن كيفية استخدام الذكاء الاصطناعي داخل المنظمة وما البيانات التي يتم جمعها وتخزينها. ومن شأن التواصل الشفاف أن يبني الثقة ويساعد الموظفين على فهم هدف استخدام الذكاء الاصطناعي، مما يقلل من مخاوف الخصوصية.
الحد من البياناتلتقليل مخاطر الخصوصية، يجب على أصحاب العمل اتباع مبدأ الحد من جمع البيانات وجمع فقط البيانات الضرورية لمهام ووظائف الذكاء الاصطناعي. وتجنب جمع معلومات كثيرة لا تتعلق بشكل مباشر بغرض الذكاء الاصطناعي.
إن جمع البيانات غير الضرورية يفرض مخاطر الخصوصية ويزيد من تعقيد إدارة البيانات. ويمكن لأصحاب العمل الحد من نقاط الضعف المحتملة للخصوصية من خلال الحد من جمع البيانات إلى ما هو مطلوب بدقة.
لضمان تفاعل الموظفين مع أنظمة الذكاء الاصطناعي بأمان ومسؤولية، يجب على أصحاب العمل توفير التدريب الكافي ووضع إرشادات واضحة لاستخدام منصات الذكاء الاصطناعي. ويشمل ذلك تثقيف الموظفين حول أفضل الممارسات لإدخال البيانات والتفاعل معها.
إخفاء هوية البياناتيمكن أن يضيف إخفاء هوية بيانات الموظفين طبقة إضافية من حماية الخصوصية. ويتضمن إخفاء الهوية إزالة المعلومات الشخصية القابلة للتحديد من مجموعات البيانات التي يستخدمها الذكاء الاصطناعي، مما يجعل من المستحيل تحديد هوية الموظفين الأفراد.
التعريف المستعارالتعريف المستعار أو تشفير هوية البيانات يعني استبدال المعلومات الشخصية القابلة للتحديد بأسماء مستعارة، مما يضمن بقاء البيانات مفيدة للذكاء الاصطناعي من دون تحديد هوية الأفراد بشكل مباشر. يمكن أن تساعد هذه التقنيات في تحقيق التوازن بين فائدة البيانات للذكاء الاصطناعي وحماية الخصوصية.
تقييمات تأثير الخصوصية المنتظمةيجب على أصحاب العمل إجراء تقييمات منتظمة لتأثير الخصوصية لتقييم تأثير الذكاء الاصطناعي على خصوصية الموظفين. وتتضمن تقييمات تأثير الخصوصية تحديد وتقييم المخاطر المحتملة المرتبطة بأنظمة الذكاء الاصطناعي وأنشطة معالجة البيانات الخاصة بها.
المصدر: الجزيرة
كلمات دلالية: حراك الجامعات حريات أدوات الذکاء الاصطناعی أنظمة الذکاء الاصطناعی الذکاء الاصطناعی فی الحد من
إقرأ أيضاً:
%92 من الطلاب يستخدمونه.. الذكاء الاصطناعي يهدد جوهر التعليم الجامعي
أثار تقرير حديث يحذر الجامعات البريطانية من ضرورة "اختبار إجهاد" التقييمات في ظل استخدام 92% من الطلاب للذكاء الاصطناعي، جدلاً واسعاً حول مستقبل التعليم الجامعي ودور الذكاء الاصطناعي فيه.
يشير البروفيسور أندرو موران من جامعة لندن متروبوليتان إلى أن الجامعات، التي كانت تعتبر لقرون مخازن للمعرفة والحقيقة، بدأت تفقد هذا الدور عندما تراجعت قيمة الخبراء وضعف التفكير النقدي واستقطب الخطاب العام بشكل متزايد.
ندرة المعرفة وتحديات المصادر التقليديةفي هذا العالم، يتم رفض المصادر التقليدية للمعرفة بشكل متزايد، الكتب والمقالات الصحفية ووسائل الإعلام القديمة تواجه تحديات من خلال التطورات في عرض المعلومات واسترجاعها، وعلى رأسها التطبيقات ووسائل التواصل الاجتماعي، وأدى ذلك إلى "ندرة المعرفة"، على حد تعبير موران.
قوائم القراءة المنسقة، التي يقضي الأكاديميون وقتًا في البحث عنها وتسليط الضوء على المفكرين والكتابات الرئيسية، غالبًا ما يتم تجاهلها من قبل الطلاب لصالح بحث جوجل.
وإذا لم يعجب الطالب ما يقرأ، يمكنه ببساطة التمرير إلى اليسار، ويمكن للخوارزميات بعد ذلك إرسال الطلاب في اتجاهات غير متوقعة، غالبًا ما تحولهم عن الصرامة الأكاديمية إلى موارد غير أكاديمية.
يؤكد موران أهمية توفير مواد التعلم للطلاب على مدار الساعة طوال أيام الأسبوع، لكنه يتساءل: "هل تصبح المعرفة سلعة استهلاكية أخرى؟" فهي متاحة بلمسة زر عبر الإنترنت، ويتم توصيلها بشكل فعال إلى بابك، وهناك العديد من المنافذ للاختيار من بينها.
قد تكون هناك كمية، ولكن ليس بالضرورة جودة: الذكاء الاصطناعي هو السلعة الاستهلاكية المطلقة.
يثير هذا الأمر تساؤلات جوهرية حول ليس فقط ما نعنيه بالمعرفة، ولكن أيضًا ما سيكون دور التعليم والأكاديميين في المستقبل.
ويقول موران: "أستطيع أن أقدر فوائد الذكاء الاصطناعي في العلوم أو الاقتصاد أو الرياضيات، حيث الحقائق غالبًا ما تكون غير قابلة للشك، ولكن ماذا عن العلوم الإنسانية والاجتماعية، حيث الكثير قابل للطعن؟"
ويحذر من أننا نفقد أرضية بسرعة أمام تغييرات مجتمعية عميقة يمكن أن يكون لها عواقب لا يمكن تصورها على الجامعات إذا لم نستجب بسرعة.
التفكير النقدي في مواجهة الذكاء الاصطناعيمن جهته، يعبر محاضر جامعي في العلوم الإنسانية عن عدم استغرابه من الزيادة الهائلة في استخدام الذكاء الاصطناعي، مشيراً إلى أنه يتم الترويج له بقوة من قبل شركات التكنولوجيا باعتباره سلعة موفرة للوقت، والخطاب السياسي الأوسع يعزز هذا الرأي دون التشكيك في قيود الذكاء الاصطناعي وأخلاقياته.
بينما قد يكون الذكاء الاصطناعي مفيدًا في العديد من السياقات الأكاديمية - في كتابة التقارير الأساسية وإجراء البحوث الأولية على سبيل المثال - فإن استخدامه من قبل الطلاب لكتابة المقالات يشير إلى التقليل من قيمة موضوعات العلوم الإنسانية وسوء فهم ما يتيحه الكتابة الأصلية في تخصصات مثل التاريخ والأدب والفلسفة: التفكير النقدي.
ويستشهد المحاضر بقول الروائي العظيم إي إم فورستر: "كيف يمكنني أن أعرف ما أفكر فيه حتى أرى ما أقول؟" كان يقصد أن الكتابة هي شكل متطور من أشكال التفكير، وأن تعلم الكتابة بشكل جيد، والشعور بالمرء وهو يشق طريقه عبر تطوير فكرة أو حجة، هو جوهر الكتابة.
عندما نطلب من الذكاء الاصطناعي كتابة مقال، فإننا لا نقوم ببساطة بالاستعانة بمصادر خارجية للعمل، بل نستعين بمصادر خارجية لتفكيرنا وتطويره، مما سيجعلنا بمرور الوقت أكثر ارتباكًا وأقل ذكاءً.
في عصر تكنولوجي نيوليبرالي نهتم فيه غالبًا بالمنتج بدلاً من العملية التي تم من خلالها صنعه، ليس من المستغرب أن يتم تجاهل القيمة الحقيقية للكتابة.
فيما يأخذ الطلاب ببساطة إشاراتهم من عالم يفقد الاتصال بالقيمة التي لا يمكن تعويضها للإبداع البشري والتفكير النقدي.