مقالات مشابهة «سباق القمة» يقدّم الانتخابات الأميركية من منظور مختلف

‏5 دقائق مضت

ما هي حقيقة تعديل سن التقاعد في العراق؟.. “مجلس النواب” يوضح

‏11 دقيقة مضت

استقبل الان.. تردد قناة وناسة لولو الجديد 2024 عبر القمر الصناعي نايل سات

‏16 دقيقة مضت

“الآنسي” يكشف عن أهم حدث في المنطقة خلال القرنين الأخيرين معاً

‏18 دقيقة مضت

“عبر منصة أبشر”.

.رابط التقديم علي وظائف وزارة الداخلية للكادر النسائي 1446 و أبرز شروط القبول

‏20 دقيقة مضت

القضاء العراقي يدخل على خط الجدل حول تعديل قانون «الأحوال الشخصية»

‏25 دقيقة مضت


أعلنت شركة «ميتا» عزمها البدء في تدريب نماذج الذكاء الاصطناعي الخاصة بها، معتمدة على بيانات مصدرها المنشورات العامة للمستخدمين على «فيسبوك» و«إنستغرام»، الأمر الذي عدّه بعض الخبراء يجدد المخاوف بشأن «الخصوصية»، ولا سيما أن الشركة كانت قد واجهت اعتراضات سابقة في ما يخص مشروعها لتغذية نماذج الذكاء الاصطناعي، ما أدى إلى توقفه في يونيو (حزيران) الماضي.

«ميتا» كانت قد أصدرت إفادة في سبتمبر (أيلول) الحالي، لتوضيح آلية استخدام المنشورات العامة للمستخدمين على «فيسبوك» و«إنستغرام» اللتين تملكهما. وقالت إنها «تشمل الصور والمنشورات والتعليقات فقط، بهدف تغذية نماذج الذكاء الاصطناعي التوليدي». وشددت الشركة على أن المحتوى المستخدم لن يشمل الرسائل الخاصة أو أي بيانات صنّفها المستخدم تحت عبارة خاص أو محمي، كما لن تشارك أي معلومات من حسابات المستخدمين الذين تقل أعمارهم عن 18 سنة.

حاتم الشولي، المشرف على تحرير الإعلام الرقمي في قناة «الشرق للأخبار» قال لـ«الشرق الأوسط» إنه يرى أن الخطوة تأتي في إطار سعي «ميتا» لتطوير تقنيات الذكاء الاصطناعي الخاصة بها. وأوضح أنها «خطوة في الاتجاه الصحيح؛ لكنها تصب في مصلحة (ميتا)، التي تسعى للبقاء منافساً قوياً في سوق التكنولوجيا المتقدمة». وأضاف: «(ميتا) هي الشركة الأضخم من حيث الاستحواذ على بيانات المستخدمين، وكانت منذ نشأتها الأكثر مرونة في التعاطي مع المتغيرات». وعدّ الشولي أن دخول الشركة في سوق الذكاء الاصطناعي أمر حتمي، موضحاً أن «(ميتا) تحمي نفسها من الشيخوخة، ولا سيما أن منصاتها التقليدية مثل (فيسبوك) بدأت تشهد تراجعاً في شعبيتها».

وعن تهديد مشروع «ميتا» لمبدأ الخصوصية، علّق الشولي بالقول إن «مسألة حماية البيانات قضية جدلية منذ ظهور منصات التواصل الاجتماعي، ولتحليل ما إذا كان مشروع (ميتا) يهدد الخصوصية أم لا، علينا أولاً التفريق بين نوعين من البيانات: الأول هي البيانات المحمية من قبل المستخدم، والثاني يخص البيانات المسموح بمشاركتها وفقاً لرغبة المستخدم أيضاً… وفي مشروع (ميتا) الذي نحن بصدده، أقرّت الشركة بأنها تعتمد على البيانات المعلنة فقط التي يوافق المستخدمون على مشاركتها، مثل العمر، النوع، الموقع الجغرافي، الاهتمامات».

مع هذا، أثار الشولي الحديث عن «أخلاقيات الذكاء الاصطناعي»، أو النماذج التي تعتمد عليها شركات التكنولوجيا المهيمنة على السوق لتدريب الذكاء الاصطناعي، وقال: «تنظيم أخلاقيات الذكاء الاصطناعي بات أكثر إلحاحاً من أكثر وقت مضى، وبالفعل اتجهت بعض الدول مثل الصين والولايات المتحدة ودول أوروبا في تشريع قوانين لحماية خصوصية المستخدمين». وشدّد «على أهمية وضع معايير واضحة ومهنية تنظم آلية استخدام البيانات لتدريب نماذج الذكاء الاصطناعي، ووجوب الإشارة إلى أن المحتويات المصنوعة بالذكاء الاصطناعي اعتمدت على مصادر معينة، وذلك من شأنه تحقيق الشفافية، ما يُجنب وقوع أي عمليات تضليل».

للعلم، يأتي مشروع «ميتا» الجديد بعدما كانت قد أعلنت تأجيل إطلاق نماذج الذكاء الاصطناعي في أوروبا، منتصف يونيو (حزيران) الماضي، على خلفية بعض العقبات، من بينها طلب هيئة حماية الخصوصية الآيرلندية تأجيل خطة «ميتا» لاستخدام البيانات من منشورات وسائل التواصل الاجتماعي. ويومذاك أعلنت الشركة أن التوقف أيضاً سيسمح لها بتلبية طلبات «مكتب مفوضية المعلومات البريطاني» (ICO) في ما يخصّ التعليمات التنظيمية لاستخدام البيانات.

ثم إن «ميتا» واجهت في يونيو الماضي انتقادات عدة من قبل «المركز الأوروبي للحقوق الرقمية» (NOYB)، وهي منظمة غير ربحية، مقرّها في فيينا، دعت الهيئات الوطنية لحماية الخصوصية في جميع أنحاء أوروبا، وإلى وقف استخدام محتوى وسائل التواصل الاجتماعي لهذا الغرض. وبرّرت موقفها بالقول إن «الإشعارات التي تقدمها (ميتا) غير كافية لتلبية قواعد الاتحاد الأوروبي الصارمة المتعلقة بالخصوصية والشفافية»، وفقاً لما نقلته وكالة أنباء «رويترز».

من جهة ثانية، قال فادي رمزي، مستشار الإعلام الرقمي المصري والمحاضر في الجامعة الأميركية بالقاهرة، لـ«الشرق الأوسط»، إن تاريخ شركة «ميتا» المالكة لمنصتي «فيسبوك» و«إنستغرام» مليء بالثغرات في ما يخص حماية البيانات. وأضاف: «من قبل نماذج الذكاء الاصطناعي، وشركة ميتا تتعامل مع أي محتوى ينشره المستخدمون بشكل علني، باعتباره متاحاً للاستخدام بدليل البيانات التي تُوفَّر للمعلنين»، وتابع: «(ميتا) تقاعست عن تعزيز الشفافية على مدار السنوات الماضية، ما يعقد الوثوق فيها الآن… لقد واجهت (ميتا) مشاكل متكررة في التعامل مع بيانات المستخدمين، وسبق أن واجهت فضائح متعلقة بتسريب البيانات، مثل قضية كمبريدج أناليتيكا». وتعود قضية «كمبريدج أناليتيكا»، ومقرها لندن، إلى عام 2018 حين كُشف عن أن الشركة جمعت البيانات الشخصية لملايين الأشخاص مستخدمة حساباتهم على «فيسبوك»، وجرى استخدام هذه البيانات لأغراض الدعاية السياسية، ما اضطر «فيسبوك» لاحقاً لدفع 725 مليون دولار في إطار تسوية لدعوى قضائية جماعية تخص تلك القضية.

ووفق رمزي، فإن «حماية الخصوصية معضلة لن تحلها شركات التكنولوجيا، لا (ميتا) ولا غيرها… فحماية الخصوصية ميزة تتنافى مع مصالح شركات التكنولوجيا، ولا سيما ونحن أمام نماذج تتنافس في مجال الذكاء الاصطناعي التوليدي». وفي ما يخص مشروع «ميتا» الجديد، قال رمزي إن «النموذج الذي قدّمته الشركة لا يشير إلى أي إلزام بإبلاغ المستخدمين حول استخدام بياناتهم، وهو أمر يعود إلى غياب التشريعات في هذا الصدد». ورهن التزام الشركة بالمصداقية والأخلاقيات المهنية فيما يخص بيانات المستخدمين أو حقوق الناشرين، كذلك بالتشريعات الملزمة.


Source link ذات صلة

المصدر: الميدان اليمني

كلمات دلالية: نماذج الذکاء الاصطناعی حمایة الخصوصیة دقیقة مضت فی ما یخص

إقرأ أيضاً:

كيف سيتغير شكل الحروب في عصر الذكاء الاصطناعي؟

مع الانتشار الكبير لتكنولوجيا “الذكاء الاصطناعي”، وقعت كافة القطاعات تحت تأثيره، حتى وصل الأمر إلى الحروب، والتي وعلى مايبدو وعقب الأحداث الأخيرة لا سيما تفجيرات “البيجر” سيتغير  شكلها بتأثير الذكاء الاصطناعي؟

وفي هذا السياق، أكد المستشار الأكاديمي في جامعة سان خوسيه الحكومية، الدكتور أحمد بانافع، لموقع “اقتصاد سكاي نيوز عربية”، أن “الذكاء الاصطناعي يسهم بشكل كبير في تغيير مفاهيم الحرب الحديثة”.

 وأوضح أن “تأثير الذكاء الاصطناعي يظهر في سرعة اتخاذ القرار وتحليل البيانات؛ حيث يوفر للقادة العسكريين قدرة غير مسبوقة على تحليل كميات هائلة من البيانات في وقت قياسي، ما يمكنهم من اتخاذ قرارات أسرع وأكثر دقة في ساحة معركة تتغير باستمرار، كما يسهم في تطوير الأسلحة وأنظمة الدفاع؛ ويُضفي ذكاءً وقدرة على التكيف على الأسلحة، ويطور أنظمة دفاعية متقدمة قادرة على اكتشاف التهديدات وتحييدها بسرعة ودقة أكبر”.

وقال: كما يسهم الذكاء الاصطناعي في “الحرب السيبرانية، حيث يفتح آفاقاً جديدة لشن هجمات سيبرانية، تمكنه من اختراق وتعطيل الأنظمة الحيوية للعدو، مما يؤثر بشكل كبير على قدرته على القتال”، مضيفا: “عدا عن ذلك يسهم الذكاء الاصطناعي في جعل الروبوتات والطائرات المسيرة، أكثر استقلالية وفاعلية في تنفيذ مهام معقدة، مما يقلل من الخسائر البشرية”.

وبخصوص الحرب النفسية، قال أحمد بانافع : “الذكاء الاصطناعي يُستخدم في نشر الدعاية والتضليل والتأثير على الرأي العام، مما يؤثر على سير العمليات القتالية”.

وفيما يتعلق بالأدوات التي يمكن أن يقدمها الذكاء الاصطناعي للحرب، قال أحمد بانافع: “تشمل أنظمة الاستخبارات والتحليل، حيث يمكنه تحليل صور الأقمار الصناعية وتسجيلات الاستطلاع لتحديد مواقع العدو وتقدير قوته، ما يساعد القادة على وضع خطط عسكرية أكثر فعالية، كما يمكن استخدامه في أنظمة توجيه الأسلحة بدقة عالية، مما يزيد من فعالية الضربات العسكرية ويقلل من الأضرار الجانبية. إضافة إلى أنظمة الدفاع الجوي، التي تعتمد على الذكاء الاصطناعي لاكتشاف الصواريخ والطائرات المعادية وتوجيه أنظمة الدفاع لاعتراضها”.

وأشار بانافع إلى أن “هذه الأدوات تتضمن أيضًا أنظمة الحرب الإلكترونية، حيث يسهم الذكاء الاصطناعي في تعطيل الاتصالات والرادارات المعادية، مما يجعل القوات المعادية أكثر عرضة للهجوم، فضلاً عن أنظمة الروبوتات القادرة على القيام بمهام خطرة مثل إزالة الألغام أو تنفيذ عمليات استطلاع”.

وأكد أن “هناك تحديات ومخاطر كبيرة ترتبط باستخدام الذكاء الاصطناعي في المجال العسكري، منها سباق التسلح الذي قد يؤدي إلى تصاعد الصراعات بين الدول، بالإضافة إلى الأخطاء البشرية في تصميم أو برمجة أنظمة الذكاء الاصطناعي، والتي قد تسفر عن نتائج كارثية. كما يثير استخدامه في الحرب عديد من القضايا الأخلاقية، مثل مسؤولية الأنظمة الذكية عن الأضرار التي تتسبب فيها، وحق الإنسان في الحياة”.

وأضاف: “بالتأكيد على أن الذكاء الاصطناعي يمثل قوة هائلة قادرة على تغيير شكل الحروب بشكل جذري، لكنه شدد على ضرورة استغلال هذه القوة بحكمة ووضع قواعد وضوابط صارمة لضمان استخدامها بشكل مسؤول وأخلاقي”.

هذا وكان قول الرئيس التنفيذي السابق لشركة غوغل، ورئيس مشروع الدراسات التنافسية الخاصة، اريك شميت، قال في مقال له بصحيفة “فاينناشال تايمز” البريطانية، “إن التقديرات تشير إلى أن الإنفاق العسكري العالمي زاد بنسبة 34 بالمئة على مدى السنوات الخمس الماضية”.

وأضاف: “يتزامن هذا الطفرة الدفاعية مع ثورة تكنولوجية أخرى تتكشف من حولنا، ممثلة في الذكاء الاصطناعي”، مضيفا: “مع زيادة ميزانيات الدفاع لتتوافق مع ثورة الذكاء الاصطناعي، ينبغي لصناع القرار في مجال المشتريات أن يفضلوا أنظمة الأسلحة التي يمكن تحمل تكلفتها، والتي يمكن استنزافها، والتي تتوفر بكثرة”.

مقالات مشابهة

  • مخاطر الذكاء الاصطناعي تصل للأطباء المشهورين.. فيديوهات بوجوههم تروّج لـعلاج معجزة
  • كيف سيتغير شكل الحروب في عصر الذكاء الاصطناعي؟
  • دراسة تُحذر: نماذج الذكاء الاصطناعي المتقدمة ستؤدي الى تطوير أسلحة بيولوجية فتاك
  • فنلندا.. شركة ناشئة تعتمد على السجناء لتدريب الذكاء الاصطناعي
  • مايكروسوفت ستستخدم الطاقة النووية لتدريب الذكاء الاصطناعي
  • العراق في المرتبة التاسعة عربياً في قائمة مؤشر الذكاء الاصطناعي
  • هل يمكن للبشر خسارة المنافسة أمام الذكاء الاصطناعي؟
  • علي بابا تطلق نماذج مبتكرة بالذكاء الاصطناعي
  • بانيش براهبو الرئيس التنفيذي لشركة إنتلكت إي آي (Intellect AI): منصة WealthForce.AI تسخّر الذكاء الاصطناعي وتحليلات البيانات الذكية لتقديم الخدمات