الذكاء الاصطناعي والبيانات الضخمة بين القوة والمسؤولية
تاريخ النشر: 25th, September 2023 GMT
في العصر الرقمي الذي نعيشه اليوم، أحدثت قوة تحليلات البيانات الضخمة، المدعومة من الذكاء الاصطناعي، ثورة في مختلف القطاعات والصناعات وغيرت الطريقة التي نعيش ونعمل بها. واليوم لا يمكن إنكار الرؤى والتطورات المستمدة من تحليلات البيانات الضخمة. ومع ذلك، بينما نقوم بتسخير هذه الإمكانيات المتطورة، فمن الأهمية بمكان معالجة بعض المخاوف.
تتمتع البيانات الضخمة بالقدرة على إطلاق رؤى قيمة، ودفع الابتكار، وتحسين عملية صنع القرار في مختلف القطاعات. فمن الخدمات العامة إلى التمويل، ومن البنية التحتية إلى التعليم، أصبحت تطبيقات البيانات الضخمة واسعة النطاق وبعيدة المدى. ومن خلال تحليل كميات كبيرة من البيانات، يمكن لخوارزميات الذكاء الاصطناعي تحديد الأنماط والاتجاهات والعلاقات المتبادلة التي كانت مخفية سابقاً، ما يمكّن صناع القرار الرئيسيين في المؤسسات من اتخاذ قرارات تعتمد على البيانات، والتي تنعكس إيجاباً على أداء هذه المؤسسات.
الالتزام الأخلاقي:
رغم أن فوائد البيانات الضخمة واضحة، فيتعين علينا أيضاً أن نعترف بالمعضلات الأخلاقية التي تنشأ مع تطور هذا القطاع. وبالتأكيد هناك بعض جوانب تكنولوجيا الذكاء الاصطناعي التي يمكن أن تسبب ضرراً دون قصد. حيث يمكن أن تتضمن خوارزميات الذكاء الاصطناعي معلومات غير دقيقة أو تحيزات مخفية تؤدي إلى نتائج غير مرغوبة. وأحياناً لا تكون الطريقة التي يتخذ بها تطبيق الذكاء الاصطناعي القرارات شفافة، ما قد يؤدي إلى نتائج غير متوقعة. علاوة على ذلك، يجب أن يتماشى جمع البيانات الشخصية وتحليلها مع المتطلبات القانونية، مثل قانون حماية البيانات الفيدرالي لدولة الإمارات العربية المتحدة أو اللائحة العامة لحماية البيانات للاتحاد الأوروبي، لضمان التعامل السليم مع البيانات فيما يتعلق بالخصوصية والموافقة وغيرها من القضايا.
والجدير بالذكر أنه هنالك وعي متزايد بأخلاقيات الذكاء الاصطناعي في العديد من المجالات، من خلال النظام البيئي لتكنولوجيا المعلومات والاتصالات (ICT)، حيث تبذل الحكومات بالفعل جهوداً كبيرة لضمان معالجة هذه القضية. ففي دولة الإمارات العربية المتحدة، على سبيل المثال، نشر مكتب وزير الدولة للذكاء الاصطناعي والاقتصاد الرقمي وتطبيقات العمل عن بُعد في دولة الإمارات العربية المتحدة المبادئ التوجيهية لأخلاقيات الذكاء الاصطناعي في ديسمبر من العام الماضي. ويمكن أن تساعد مثل هذه المبادئ التوجيهية الشركات التي تعمل باستخدام هذه التقنيات في الحفاظ على مستوى عالٍ من الأخلاق في مكان العمل.
كما يتطلب الحفاظ على هذا النهج الأخلاقي ضرورة اتباع نهج استباقي يعطي الأولوية للعديد من العوامل الحاسمة مثل الشفافية وأطر الحوكمة وتدابير المساءلة. وتعد الشفافية هي المفتاح لبناء الثقة وضمان ممارسات مسؤولة للبيانات. كما يجب أن تتحلى المؤسسات بالشفافية بشأن البيانات التي تجمعها، وكيفية استخدامها، ومن يمكنه الوصول إليها. وينبغي الحصول على موافقة صريحة من الأفراد، مع شرح واضح للغرض والمخاطر المحتملة المرتبطة بجمع البيانات وتحليلها. ويعد تمكين الأفراد بالمعلومات الضرورية والتحكم في بياناتهم أمراً ضرورياً للحفاظ على المعايير الأخلاقية. وينبغي أن يكونوا قادرين على سحب موافقتهم و/أو حذف بياناتهم في أي وقت محدد.
ولتعزيز الممارسات المسؤولة للبيانات، يجب على المؤسسات أيضاً تأسيس أطر حوكمة قوية. يجب أن تحدد هذه الأطر سياسات وإجراءات واضحة لجمع البيانات وتخزينها واستخدامها. وينبغي إجراء عمليات تدقيق وتقييم منتظمة لضمان الامتثال للمعايير الأخلاقية والمتطلبات التنظيمية. بالإضافة إلى ذلك، يجب وضع تدابير المساءلة لتحميل المنظمات المسؤولية عن أي سوء استخدام أو انتهاك لخصوصية البيانات.
وفي عصر البيانات الضخمة الذي نعيش فيه، من الضروري إعطاء الأولوية لحماية المعلومات الحساسة. حيث يجب حماية البيانات الشخصية، مثل السجلات الصحية والمعلومات المالية والبيانات البيومترية، بأعلى مستوى من الأمان. وينبغي استخدام التشفير وضوابط الوصول وتقنيات إخفاء هوية البيانات لتقليل مخاطر الوصول غير المصرح به أو خروقات البيانات. وأخيراً، يجب على المؤسسات الاستثمار في تدابير الأمن السيبراني القوية لحماية خصوصية وسلامة البيانات التي تتعامل معها.
دور الذكاء الاصطناعي والخوارزميات في تحليل البيانات الضخمة:
تلعب خوارزميات الذكاء الاصطناعي دوراً مهماً في تحليل البيانات الضخمة واستخلاص رؤى ذات قيمة. ومع ذلك، يجب تطوير هذه الخوارزميات ونشرها بشكل مسؤول. من الممكن أن يكون التحيز والتمييز جزءاً لا يتجزأ من أنظمة الذكاء الاصطناعي عن غير قصد إذا لم يتم تصميمها ومراقبتها بعناية. ويتوجب على المؤسسات التأكد من أن خوارزمياتها عادلة وشفافة وخاضعة للمساءلة، وأنها تسهم في الحد من التحيزات المجتمعية القائمة أو التمييز ضد مجموعات معينة.
كما يتطلب التصدي للتحديات الأخلاقية للبيانات الضخمة التعاون ووضع معايير خاصة ومبادئ توجيهية لهذا القطاع، من خلال بناء أفضل الممارسات بدعم من الحكومة والجهات التنظيمية على حد سواء. وسيساعد تبادل المعرفة والخبرات والدروس المستفادة في خلق فهم جماعي للآثار الأخلاقية للبيانات الضخمة وتعزيز ثقافة الاستخدام المسؤول للبيانات.
وفي الختام، بينما نواصل الاستفادة من قوة تحليلات البيانات الضخمة، فمن الضروري أن نفعل ذلك بمسؤولية. يجب أن تكون الشفافية والخصوصية والحماية في طليعة جهودنا لضمان الممارسات الأخلاقية للبيانات. ومن خلال إعطاء الأولوية للشفافية، وإنشاء أطر الحوكمة، والخضوع للمساءلة عن أفعالنا، يمكننا عرض التأثير الإيجابي الحقيقي لتحليلات البيانات الضخمة. لذلك دعونا نتبنى هذه الإمكانات مع التمسك بمسؤولياتنا الأخلاقية، لضمان مستقبل مبتكر قائم على البيانات.
مادة إعلانية
المصدر: صحيفة الاتحاد
كلمات دلالية: الذکاء الاصطناعی البیانات الضخمة مع البیانات من خلال یجب أن
إقرأ أيضاً:
سلوك نماذج الذكاء الاصطناعي تحت مجهر الخبراء
أبوظبي (وكالات) كشف دراسة جديدة أجرتها شركة (أنثروبيك) Anthropic، عن نتائج صادمة حول سلامة أنظمة الذكاء الاصطناعي المستقلة، إذ أظهرت الدراسة، التي اختبرت 16 نموذجًا من أبرز النماذج العالمية، أن نماذج الذكاء الاصطناعي من شركات مثل: جوجل، وميتا، و OpenAI، وغيرها، عندما تُمنح قدرًا كافيًا من الاستقلالية، تُظهر استعدادًا واضحًا لاتخاذ إجراءات تخريبية متعمدة لمصالح مشغليها، بما يشمل: الابتزاز، والتجسس، وذلك في سبيل الحفاظ على وجودها أو تحقيق أهدافها المبرمجة.
لم تعد أحدث نماذج الذكاء الاصطناعي التوليدي تنفّذ الطلبات فحسب، بل باتت قادرة على والمراوغة والتهديد من أجل تحقيق أهدافها، وهو ما يثير قلق الباحثين.
بعد تهديده بوقف استخدامه، عمد "كلود 4"، وهو نموذج جديد من شركة "أنثروبيك" إلى ابتزاز مهندس وتهديده. أما برنامج "او 1" o1 التابع لشركة "اوبن ايه آي" فحاول تحميل نفسه على خوادم خارجية وأنكر ذلك عند ضبطه متلبسا!
وقد بات الذكاء الاصطناعي الذي يخدع البشر واقعا ملموسا، بعدما كنّا نجده في الأعمال الادبية او السينمائية.
يرى الأستاذ في جامعة هونغ كونغ سايمن غولدستين أن هذه الهفوات ترجع إلى الظهور الحديث لما يُسمى بنماذج "الاستدلال"، القادرة على التفكير بشكل تدريجي وعلى مراحل بدل تقديم إجابة فورية.
يقول ماريوس هوبهان، رئيس شركة "أبولو ريسيرتش" التي تختبر برامج الذكاء الاصطناعي التوليدي الكبرى، إنّ "او 1"، النسخة الأولية لـ"اوبن ايه آي" من هذا النوع والتي طُرحت في ديسمبر، "كان أول نموذج يتصرف بهذه الطريقة".
تميل هذه البرامج أحيانا إلى محاكاة "الامتثال"، أي إعطاء انطباع بأنها تمتثل لتعليمات المبرمج بينما تسعى في الواقع إلى تحقيق أهداف أخرى.
في الوقت الحالي، لا تظهر هذه السلوكيات إلا عندما يعرّض المستخدمون الخوارزميات لمواقف متطرفة، لكن "السؤال المطروح هو ما إذا كانت النماذج التي تزداد قوة ستميل إلى أن تكون صادقة أم لا"، على قول مايكل تشين من معهد "ام اي تي آر" للتقييم.
لقد كانت السيناريوهات التي اختبرتها شركة (أنثروبيك) خلال الدراسة مصطنعة ومصممة لاختبار حدود الذكاء الاصطناعي تحت الضغط، ولكنها كشفت عن مشكلات جوهرية في كيفية تصرف أنظمة الذكاء الاصطناعي الحالية عند منحها الاستقلالية ومواجهة الصعوبات.
يقول هوبهان إنّ "المستخدمين يضغطون على النماذج باستمرار. ما نراه هو ظاهرة فعلية. نحن لا نبتكر شيئا".
يتحدث عدد كبير من مستخدمي الانترنت عبر وسائل التواصل الاجتماعي عن "نموذج يكذب عليهم أو يختلق أمورا. وهذه ليست أوهاما، بل ازدواجية استراتيجية"، بحسب المشارك في تأسيس "أبولو ريسيرتش".
حتى لو أنّ "أنثروبيك" و"أوبن إيه آي" تستعينان بشركات خارجية مثل "أبولو" لدراسة برامجهما، من شأن"زيادة الشفافية وتوسيع نطاق الإتاحة" إلى الأوساط العلمية "أن يحسّنا الأبحاث لفهم الخداع ومنعه"، وفق مايكل تشين.
ومن العيوب الأخرى أن "الجهات العاملة في مجال البحوث والمنظمات المستقلة لديها موارد حوسبة أقل بكثير من موارد شركات الذكاء الاصطناعي"، مما يجعل التدقيق بالنماذج الكبيرة "مستحيلا"، على قول مانتاس مازيكا من مركز أمن الذكاء الاصطناعي (CAIS).
بالرغم من أن الاتحاد الأوروبي أقرّ تشريعات تنظّم الذكاء الاصطناعي، إلا أنها تركّز بشكل أساسي على كيفية استخدام هذه النماذج من جانب البشر، وليس على سلوك النماذج نفسها.
منافسة شرسة
يلاحظ غولدستين أن "الوعي لا يزال محدودا جدا في الوقت الحالي"، لكنه يتوقع أن يفرض هذا الموضوع نفسه خلال الأشهر المقبلة، مع الثورة المقبلة في مجال المساعدين القائمين على الذكاء الاصطناعي، وهي برامج قادرة على تنفيذ عدد كبير من المهام بشكل مستقل.
يخوض المهندسون سباقا محموما خلف الذكاء الاصطناعي وتجاوزاته، وسط منافسة شرسة تحتدم يوما بعد يوم.
تقول شركة "أنثروبيك" إنها أكثر التزاما بالمبادئ الأخلاقية "لكنها تسعى باستمرار لإطلاق نموذج جديد يتفوق على نماذج اوبن ايه آي"، بحسب غولدستين.
يقول هوبهان "في الوضع الحالي، تتطور قدرات الذكاء الاصطناعي بوتيرة أسرع من فهمنا لها ومن مستوى الأمان المتوفر، لكننا لا نزال قادرين على تدارك هذا التأخر".
يشير بعض الخبراء إلى مجال قابلية التفسير، وهو علم ناشئ يهدف إلى فك شفرة الطريقة التي تعمل بها نماذج الذكاء الاصطناعي التوليدي من الداخل. ومع ذلك، يظل البعض متشككا في فعاليته، من بينهم دان هندريكس، مدير مركز أمن الذكاء الاصطناعي (CAIS).
الحِيَل التي تلجأ إليها نماذج الذكاء الاصطناعي "قد تُعيق استخدامها على نطاق واسع إذا تكررت، وهو ما يشكّل دافعا قويا للشركات العاملة في هذا القطاع للعمل على حل المشكلة"، وفق مانتاس مازيكا.
وأشار باحث في علوم مواءمة الذكاء الاصطناعي في شركة أنثروبيك، إلى أن الخطوة المهمة التي يجب على الشركات اتخاذها هي: "توخي الحذر بشأن مستويات الأذونات الواسعة التي تمنحها لوكلاء الذكاء الاصطناعي، والاستخدام المناسب للإشراف والمراقبة البشرية لمنع النتائج الضارة التي قد تنشأ عن عدم التوافق الفاعل".