في العصر الرقمي الذي نعيشه اليوم، أحدثت قوة تحليلات البيانات الضخمة، المدعومة من الذكاء الاصطناعي، ثورة في مختلف القطاعات والصناعات وغيرت الطريقة التي نعيش ونعمل بها. واليوم لا يمكن إنكار الرؤى والتطورات المستمدة من تحليلات البيانات الضخمة. ومع ذلك، بينما نقوم بتسخير هذه الإمكانيات المتطورة، فمن الأهمية بمكان معالجة بعض المخاوف.



تتمتع البيانات الضخمة بالقدرة على إطلاق رؤى قيمة، ودفع الابتكار، وتحسين عملية صنع القرار في مختلف القطاعات. فمن الخدمات العامة إلى التمويل، ومن البنية التحتية إلى التعليم، أصبحت تطبيقات البيانات الضخمة واسعة النطاق وبعيدة المدى. ومن خلال تحليل كميات كبيرة من البيانات، يمكن لخوارزميات الذكاء الاصطناعي تحديد الأنماط والاتجاهات والعلاقات المتبادلة التي كانت مخفية سابقاً، ما يمكّن صناع القرار الرئيسيين في المؤسسات من اتخاذ قرارات تعتمد على البيانات، والتي تنعكس إيجاباً على أداء هذه المؤسسات.

الالتزام الأخلاقي:

رغم أن فوائد البيانات الضخمة واضحة، فيتعين علينا أيضاً أن نعترف بالمعضلات الأخلاقية التي تنشأ مع تطور هذا القطاع. وبالتأكيد هناك بعض جوانب تكنولوجيا الذكاء الاصطناعي التي يمكن أن تسبب ضرراً دون قصد. حيث يمكن أن تتضمن خوارزميات الذكاء الاصطناعي معلومات غير دقيقة أو تحيزات مخفية تؤدي إلى نتائج غير مرغوبة. وأحياناً لا تكون الطريقة التي يتخذ بها تطبيق الذكاء الاصطناعي القرارات شفافة، ما قد يؤدي إلى نتائج غير متوقعة. علاوة على ذلك، يجب أن يتماشى جمع البيانات الشخصية وتحليلها مع المتطلبات القانونية، مثل قانون حماية البيانات الفيدرالي لدولة الإمارات العربية المتحدة أو اللائحة العامة لحماية البيانات للاتحاد الأوروبي، لضمان التعامل السليم مع البيانات فيما يتعلق بالخصوصية والموافقة وغيرها من القضايا.


والجدير بالذكر أنه هنالك وعي متزايد بأخلاقيات الذكاء الاصطناعي في العديد من المجالات، من خلال النظام البيئي لتكنولوجيا المعلومات والاتصالات (ICT)، حيث تبذل الحكومات بالفعل جهوداً كبيرة لضمان معالجة هذه القضية. ففي دولة الإمارات العربية المتحدة، على سبيل المثال، نشر مكتب وزير الدولة للذكاء الاصطناعي والاقتصاد الرقمي وتطبيقات العمل عن بُعد في دولة الإمارات العربية المتحدة المبادئ التوجيهية لأخلاقيات الذكاء الاصطناعي في ديسمبر من العام الماضي. ويمكن أن تساعد مثل هذه المبادئ التوجيهية الشركات التي تعمل باستخدام هذه التقنيات في الحفاظ على مستوى عالٍ من الأخلاق في مكان العمل.

كما يتطلب الحفاظ على هذا النهج الأخلاقي ضرورة اتباع نهج استباقي يعطي الأولوية للعديد من العوامل الحاسمة مثل الشفافية وأطر الحوكمة وتدابير المساءلة. وتعد الشفافية هي المفتاح لبناء الثقة وضمان ممارسات مسؤولة للبيانات. كما يجب أن تتحلى المؤسسات بالشفافية بشأن البيانات التي تجمعها، وكيفية استخدامها، ومن يمكنه الوصول إليها. وينبغي الحصول على موافقة صريحة من الأفراد، مع شرح واضح للغرض والمخاطر المحتملة المرتبطة بجمع البيانات وتحليلها. ويعد تمكين الأفراد بالمعلومات الضرورية والتحكم في بياناتهم أمراً ضرورياً للحفاظ على المعايير الأخلاقية. وينبغي أن يكونوا قادرين على سحب موافقتهم و/أو حذف بياناتهم في أي وقت محدد.

ولتعزيز الممارسات المسؤولة للبيانات، يجب على المؤسسات أيضاً تأسيس أطر حوكمة قوية. يجب أن تحدد هذه الأطر سياسات وإجراءات واضحة لجمع البيانات وتخزينها واستخدامها. وينبغي إجراء عمليات تدقيق وتقييم منتظمة لضمان الامتثال للمعايير الأخلاقية والمتطلبات التنظيمية. بالإضافة إلى ذلك، يجب وضع تدابير المساءلة لتحميل المنظمات المسؤولية عن أي سوء استخدام أو انتهاك لخصوصية البيانات.

أخبار ذات صلة حكيمي وإنريكي.. «شفاء الغليل»! «الزعيم» يستعيد «القمة» بعد غياب 485 يوماً!

وفي عصر البيانات الضخمة الذي نعيش فيه، من الضروري إعطاء الأولوية لحماية المعلومات الحساسة. حيث يجب حماية البيانات الشخصية، مثل السجلات الصحية والمعلومات المالية والبيانات البيومترية، بأعلى مستوى من الأمان. وينبغي استخدام التشفير وضوابط الوصول وتقنيات إخفاء هوية البيانات لتقليل مخاطر الوصول غير المصرح به أو خروقات البيانات. وأخيراً، يجب على المؤسسات الاستثمار في تدابير الأمن السيبراني القوية لحماية خصوصية وسلامة البيانات التي تتعامل معها.


دور الذكاء الاصطناعي والخوارزميات في تحليل البيانات الضخمة:

تلعب خوارزميات الذكاء الاصطناعي دوراً مهماً في تحليل البيانات الضخمة واستخلاص رؤى ذات قيمة. ومع ذلك، يجب تطوير هذه الخوارزميات ونشرها بشكل مسؤول. من الممكن أن يكون التحيز والتمييز جزءاً لا يتجزأ من أنظمة الذكاء الاصطناعي عن غير قصد إذا لم يتم تصميمها ومراقبتها بعناية. ويتوجب على المؤسسات التأكد من أن خوارزمياتها عادلة وشفافة وخاضعة للمساءلة، وأنها تسهم في الحد من التحيزات المجتمعية القائمة أو التمييز ضد مجموعات معينة.

كما يتطلب التصدي للتحديات الأخلاقية للبيانات الضخمة التعاون ووضع معايير خاصة ومبادئ توجيهية لهذا القطاع، من خلال بناء أفضل الممارسات بدعم من الحكومة والجهات التنظيمية على حد سواء. وسيساعد تبادل المعرفة والخبرات والدروس المستفادة في خلق فهم جماعي للآثار الأخلاقية للبيانات الضخمة وتعزيز ثقافة الاستخدام المسؤول للبيانات.

وفي الختام، بينما نواصل الاستفادة من قوة تحليلات البيانات الضخمة، فمن الضروري أن نفعل ذلك بمسؤولية. يجب أن تكون الشفافية والخصوصية والحماية في طليعة جهودنا لضمان الممارسات الأخلاقية للبيانات. ومن خلال إعطاء الأولوية للشفافية، وإنشاء أطر الحوكمة، والخضوع للمساءلة عن أفعالنا، يمكننا عرض التأثير الإيجابي الحقيقي لتحليلات البيانات الضخمة. لذلك دعونا نتبنى هذه الإمكانات مع التمسك بمسؤولياتنا الأخلاقية، لضمان مستقبل مبتكر قائم على البيانات.



مادة إعلانية

المصدر: صحيفة الاتحاد

كلمات دلالية: الذکاء الاصطناعی البیانات الضخمة مع البیانات من خلال یجب أن

إقرأ أيضاً:

الكتب عنوان معركة جديدة بين شركات الذكاء الاصطناعي والناشرين

مع تزايد احتياجات الذكاء الاصطناعي التوليدي، بدأت أوساط قطاع النشر هي الأخرى في التفاوض مع المنصات الرقمية التي توفر هذه التقنية سعيا إلى حماية حقوق المؤلفين، وإبرام عقود مع الجهات المعنية بتوفير هذه الخدمات لتحقيق المداخيل من محتواها.

واقترحت دار نشر "هاربر كولينز" الأميركية الكبرى أخيرا على بعض مؤلفيها عقدا مع إحدى شركات الذكاء الاصطناعي تبقى هويتها طي الكتمان، يتيح لهذه الشركة استخدام أعمالهم المنشورة لتدريب نماذجها القائمة على الذكاء الاصطناعي التوليدي.

وفي رسالة اطلعت عليها وكالة الصحافة الفرنسية، عرضت شركة الذكاء الاصطناعي 2500 دولار لكل كتاب تختاره لتدريب نموذجها اللغوي "إل إل إم" لمدة ثلاث سنوات.

ولكي تكون برامج الذكاء الاصطناعي قادرة على إنتاج مختلف أنواع المحتوى بناء على طلب بسيط بلغة يومية، ينبغي تغذيتها بكمية متزايدة من البيانات.

وبعد التواصل مع دار النشر، أكدت الأخيرة الموافقة على العملية. وتشير إلى أن "هاربر كولينز أبرمت عقدا مع إحدى شركات التكنولوجيا المتخصصة بالذكاء الاصطناعي للسماح بالاستخدام المحدود لكتب معينة بهدف تدريب نماذج الذكاء الاصطناعي وتحسين أدائها".

وتوضح دار النشر أيضا أن العقد "ينظّم بشكل واضح ما تنتجه النماذج مع احترامها حقوق النشر".

"هاربر كولينز" هي إحدى كبرى دور النشر التي أبرمت عقودا من هذا النوع لكنّها ليست الأولى (شترستوك) آراء متباينة

ولاقى هذا العرض آراء متفاوتة في قطاع النشر، إذ رفضه كتّاب مثل الأميركي دانييل كيبلسميث الذي قال في منشور عبر منصة "بلوسكاي" للتواصل الاجتماعي "من المحتمل أن أقبل بذلك مقابل مليار دولار، مبلغ يتيح لي التوقف عن العمل لأن هذا هو الهدف النهائي من هذه التكنولوجيا".

ومع أنّ هاربر كولينز هي إحدى كبرى دور النشر التي أبرمت عقودا من هذا النوع، فإنّها ليست الأولى. فدار "ويلي" الأميركية الناشرة للكتب العلمية أتاحت لشركة تكنولوجية كبيرة "محتوى كتب أكاديمية ومهنية منشورة لاستخدام محدد في نماذج التدريب مقابل 23 مليون دولار"، وفقما قالت في مارس/آذار الماضي عند عرض نتائجها المالية.

ويسلط هذا النوع من الاتفاقيات الضوء على المشاكل المرتبطة بتطوير الذكاء الاصطناعي التوليدي، الذي يتم تدريبه على كميات هائلة من البيانات تُجمع من الإنترنت، مما قد يؤدي إلى انتهاكات لحقوق الطبع والنشر.

ترى جادا بيستيلي رئيسة قسم الأخلاقيات لدى "هاغينغ فايس"، وهي منصة فرنسية أميركية متخصصة بالذكاء الاصطناعي، أنّ هذا الإعلان يشكل خطوة إلى الأمام لأن محتوى الكتب يدرّ أموالا. لكنها تأسف لأن هامش التفاوض محدود للمؤلفين.

وتقول "ما سنراه هو آلية لاتفاقيات ثنائية بين شركات التكنولوجيا ودور النشر أو أصحاب حقوق الطبع والنشر، في حين ينبغي أن تكون المفاوضات أوسع لتشمل أصحاب العلاقة".

يقول المدير القانوني لاتحاد النشر الفرنسي "إس إن إي" (SNE) جوليان شوراكي "نبدأ من مكان بعيد جدا"، مضيفا "إنّه تقدم، فبمجرّد وجود اتفاق يعني أن حوارا ما انعقد وثمة رغبة في تحقيق توازن في ما يخص استخدام البيانات كمصدر، والتي تخضع للحقوق والتي ستولد مبالغ".

المدعون يعترضون على استخدام الذكاء الاصطناعي للنصوص والصور لتطوير قدراته (شترستوك)

وفي ظل هذه المسائل، بدأ الناشرون الصحافيون أيضا في تنظيم هذا الموضوع. ففي نهاية 2023، أطلقت صحيفة "نيويورك تايمز" الأميركية اليومية ملاحقات ضد شركة "أوبن إيه آي" مبتكرة برنامج "شات جي بي تي"، وضد "مايكروسوفت" المستثمر الرئيسي فيها، بتهمة انتهاك حقوق النشر. وقد أبرمت وسائل إعلام أخرى اتفاقيات مع "أوبن إيه آي".

وربما لم يعد أمام شركات التكنولوجيا أي خيار لتحسين منتجاتها إلا باعتماد خيارات تُلزمها دفع أموال، خصوصا مع بدء نفاد المواد الجديدة لتشغيل النماذج.

وأشارت الصحافة الأميركية أخيرا إلى أن النماذج الجديدة قيد التطوير تبدو وكأنها وصلت إلى حدودها القصوى، لا سيما برامج "غوغل" و"أنثروبيك" و"أوبن إيه آي".

يقول جوليان شوراكي "على شبكة الإنترنت، يمكن جمع المحتوى القانوني وغير القانوني، وكميات كبيرة من المحتوى المقرصن، مما يشكل مشكلة قانونية. هذا من دون أن ننسى مسألة نوعية البيانات".

تلقين التكنولوجيا

ويحتج المدعون على حق الذكاء الاصطناعي في معالجة مليارات النصوص أو الصور، مما سمح بـ"تلقين" هذه التكنولوجيا لبناء قدراتها وساعدها على تطوير إمكانياتها بالاستعانة بالنصوص والصور التي تمت معالجتها.

وتتيح مذكرة أوروبية صادرة عام 2019، اعتُمدت في 22 دولة من الاتحاد الأوروبي بينها فرنسا، هذا "الحق في التنقيب عن البيانات"، بما في ذلك المحتوى المحمي بحقوق الطبع والنشر، إذا كانت هذه البيانات متاحة للجمهور، إلا إذا اعترض صاحب الحقوق صراحة.

وبدأ مؤلفون رفع دعاوى لحماية حقوقهم لمواجهة الذكاء الاصطناعي الذي يستخدم أعمالهم لتوليد محتوى، إلا أن معاركهم القضائية لن تكون سهلة، ففي أوروبا وأميركا الشمالية يميل القانون إلى تأييد الذكاء الاصطناعي مع أنّ الوضع قد يتغيّر، وفق قانونيين.

مقالات مشابهة

  • الذكاء الاصطناعي في العراق.. مشاريع مرتقبة مع منظمة التعاون الرقمي
  • قومي حقوق الإنسان يناقش تأثيرات الذكاء الاصطناعي على حقوق الإنسان
  • الكتب عنوان معركة جديدة بين شركات الذكاء الاصطناعي والناشرين
  • "أرجوك توقف".. رجل يتوسل إلى الذكاء الاصطناعي بعد مقاطع مزعجة
  • تصنيف حيوية الذكاء الاصطناعي.. دولة عزبية ضمن الأوائل عالميا
  • أدوات جوجل الجديدة التي تعتمد على الذكاء الاصطناعي لجعل حياتك أسهل
  • استخدام الذكاء الاصطناعي في ميكنة قصر العيني
  • جامعة دبي تستضيف مؤتمر الذكاء الاصطناعي وإنترنت الأشياء
  • مستقبل التعليم في عصر التكنولوجيا.. الذكاء الاصطناعي واستخدام البيانات الضخمة
  • بيل غيتس يلقي محاضرة عن الذكاء الاصطناعي