تعتبر منصة "لينكد إن" المملوكة لشركة "مايكروسوفت" المنصة الاجتماعية المهنية الأشهر، إذ تضم أكثر من مليار عضو في أكثر من 200 بلد وإقليم في جميع أنحاء العالم، وهي مقصد أي شخص يرغب في التعريف عن نفسه من الجانب المهني، وإبراز خبراته في مجال تخصصه.

ويعتمد المستخدمون على منصة "لينكد إن" بوصفها أداة استثنائية لبناء شبكة علاقات مهنية، والبحث عن وظائف في مجال تخصصهم، والتفاعل مع زملائهم في العمل، والاستفادة من المجموعات المتخصصة التي تنشر أدوات تساعد مستخدمي المنصة على تطوير خبراتهم العملية.

ولكن لا تبدو هذه الاستفادة من طرف واحد، فالمنصة أيضا تريد الاستفادة من المستخدمين، إذ أضافت الشبكة المهنية الكبرى "لينكد إن" في سبتمبر/أيلول الماضي إعدادا جديدا لخصوصية البيانات يسمى "بيانات تعزيز الذكاء الاصطناعي التوليدي" يسمح بتوظيف بيانات المستخدمين افتراضيا لتدريب نماذج الذكاء الاصطناعي.

هل سبق تدريب الذكاء الاصطناعي التوليدي تحديث شروط الخدمة؟

وفقا لتقرير نشره موقع "تيك كرانش"، يتمتع مستخدمو "لينكد إن" في الولايات المتحدة، بعكس الاتحاد الأوروبي، أو المنطقة الاقتصادية الأوروبية، أو سويسرا بخيار إلغاء الاشتراك في شاشة الإعدادات الخاصة بهم، إذ يتم الإفصاح عن أن "لينكد إن" تقوم بجمع البيانات الشخصية لتدريب نماذج الذكاء الاصطناعي لإنشاء المحتوى، ويعود هذا على الأرجح لقواعد خصوصية البيانات في تلك المناطق.

إعلان

بالطبع هذا الخيار ليس جديدا، ولكن تقريرا صدر عن موقع "ميديا 404" أفاد بأن بعض مستخدمي "لينكد إن" قد تفاجؤوا بظهور إعداد جديد يكشف أن المنصة تستخدم بياناتهم لتدريب نماذج الذكاء الاصطناعي المولد من دون موافقة مسبقة، حيث ذكر التقرير أن "لينكد إن" لم تقم بتحديث سياسة الخصوصية الخاصة بها لتعكس استخدام البيانات قبل بداية عملية التدريب.

وقد تمّ تحديث شروط الخدمة الآن، لكن عادة ما يحدث ذلك قبل فترة طويلة من تغيير كبير مثل استخدام بيانات المستخدمين لغرض جديد، كتدريب نماذج الذكاء الاصطناعي التوليدي، الأمر الذي يمنح المستخدمين خيارا لإجراء تغييرات على حساباتهم، أو مغادرة المنصة إذا لم تعجبهم التغييرات، وهو ما لم يحدث هذه المرة.

"لينكد إن" ستحتفظ بعلامتها المميزة واستقلالها (الجزيرة) ما النماذج التي تقوم "لينكد إن" بتدريبها؟

تقوم "لينكد إن" بتدريب نماذج تشمل اقتراحات الكتابة وتوصيات المنشورات، وأشارت أيضا إلى أن نماذج الذكاء الاصطناعي التوليدية على منصتها قد يتم تدريبها بواسطة مزوّد آخر مثل الشركة الأم لها "مايكروسوفت".

وقالت: "كما هي الحال مع معظم الميزات على (لينكد إن)، عندما تتفاعل مع منصتنا يتم جمع واستخدام أو معالجة البيانات حول استخدامك للمنصة، بما في ذلك البيانات الشخصية".

وأضافت: "قد تشمل هذه البيانات استخدامك للذكاء الاصطناعي التوليدي، الذي يتم استخدامه لإنشاء المحتوى، أو نماذج الذكاء الاصطناعي الأخرى، منشوراتك ومقالاتك، ومدى تكرار استخدامك للينكد إن، وتفضيلاتك اللغوية، وأي ملاحظات قد تكون قدمتها لفرقنا. نستخدم هذه البيانات بما يتماشى مع سياسة الخصوصية الخاصة بنا لتحسين وتطوير خدمات لينكد إن".

 

وأكد غريغ سنابر المدير التنفيذي للتواصل المؤسسي في "لينكد إن" أن المنصة تستخدم بيانات الأشخاص لتدريب الذكاء الاصطناعي من أجل مساعدة الناس في جميع أنحاء العالم على خلق فرص اقتصادية من خلال تطوير أدوات تساعدهم في العثور على وظائف جديدة وتعلم مهارات جديدة، وقال: "إذا نجحنا في ذلك يمكننا مساعدة كثير من الناس على نطاق واسع".

إعلان

وكانت "لينكد إن" قد نشرت يوم 18 سبتمبر/أيلول الماضي مدونة على موقعها الرسمي، وضحت فيها أنه في اتفاقية المستخدم، ستتضمن التحديثات أحكاما جديدة تتعلق بالميزات الخاصة بالذكاء الاصطناعي التوليدي التي تقدمها، وأن هذه التحديثات ستدخل حيز التنفيذ في نوفمبر/تشرين الثاني لهذا العام.

وفي المدونة نفسها، قال بلاك لاويت نائب الرئيس والمستشار العام في المنصة: "في سياسة الخصوصية لدينا، أضفنا لغة لتوضيح كيفية استخدامنا للمعلومات التي تشاركها معنا لتطوير المنتجات والخدمات الخاصة بلينكد إن وشركاتها التابعة، بما في ذلك من خلال تدريب نماذج الذكاء الاصطناعي المستخدمة في توليد المحتوى (الذكاء الاصطناعي التوليدي) ومن خلال تدابير الأمان والسلامة".

انتقادات واسعة

واجهت المنصة عدة انتقادات إثر التحديثات الجديدة، إذ اعتبر كثيرون أن الشركة لم تكن شفافة وواضحة بشأن كيفية جمع واستخدام البيانات، حيث دعت منظمة "مجموعة الحقوق المفتوحة" غير الربحية مكتب مفوض المعلومات -الجهة المنظمة المستقلة في المملكة المتحدة المعنية بحقوق حماية البيانات- إلى التحقيق في "لينكد إن" وغيرها من الشبكات الاجتماعية التي تعتمد على بيانات المستخدمين بشكل افتراضي.

وقال المسؤول القانوني والسياسي في المنظمة ماريانو ديلي سانتي في بيان: "لينكد إن هي أحدث شبكة وسائط اجتماعية تُكتشفُ أنها تعالج بياناتنا دون طلب الموافقة".

وأضاف: "يثبت نموذج الانسحاب مرة أخرى أنه غير كافٍ تماما لحماية حقوقنا. لا يمكن توقع أن يراقب الجمهور ويتعقب كل شركة عبر الإنترنت تقرر استخدام بياناتنا لتجريب الذكاء الاصطناعي. إن الموافقة المسبقة ليست فقط مطلبا قانونيا، بل هي أيضا متطلب منطقي".

وذكرت صحيفة واشنطن بوست -في تقرير لها- أنّ "لينكد إن" منحت نفسها بشكل افتراضي إذنا لاستخدام المعلومات التي شاركها مستخدمو المنصة لتدريب نماذج الذكاء الاصطناعي الخاصة بها، وما لم يقم المستخدم بإيقاف هذا الإعداد الجديد، فإن المنصة تعتبر كل بيانات المستخدمين متاحة، كالمنشورات، والمقالات، وحتى الفيديوهات الخاصة بهم، وهو ما فاجأ كثيرين.

"لينكد إن" أخفقت في الوفاء بالمعايير المطلوبة عند الحصول على موافقات صحيحة من المستخدمين (مواقع التواصل)

وفي التقرير نفسه، قالت واشنطن بوست: "من الواضح أن (لينكد إن) ترغب بشدة في أن تؤدي ميزاتها الذكية إلى حصولك على وظيفة تقدر فيها جودة عملك بشكل عادل، لكن من الصعب التفكير في الأمر من منظور آخر أيضا، هل تقدر (لينكد إن) العمل الذي ساهمت من خلاله في تحسين ذكائها الاصطناعي بشكل عادل؟ عمل لم تتلق عنه تعويضا مباشرا، أو ربما لا تكون قد أخبرت أنهم يستخدمونه".

إعلان

قد يبدو هذا التبادل عادلا بالنسبة للبعض، بينما يشعر آخرون بعدم الارتياح تجاه كيفية تعامل "لينكد إن" مع الوضع، إذ قال المحامي في مؤسسة الحدود الإلكترونية ماريو تروخيو إن الأدوات الصعبة للاختيار غير المتاح نادرا ما تكون وسيلة فعالة للسماح للمستخدمين بممارسة حقوقهم في الخصوصية، وإن الشركات إذا كانت ترغب حقا في منح المستخدمين خيارا، فيجب عليها تقديم خيار واضح للموافقة "نعم" أو "لا".

وليست "لينكد إن" وحدها من تحول البيانات العامة للمستخدمين إلى مواد تدريب للذكاء الاصطناعي، إذ إن "شات جي بي تي" من "أوبن إيه آي" و"جيميناي" من غوغل تستخدم محادثات المستخدمين لتحسين أداء روبوتات الدردشة بمرور الوقت، ويتطلب من المستخدم اختيار الانسحاب بدلا من الاشتراك.

وخلال جلسة استماع حدثت مؤخرا في البرلمان الأسترالي، أكدت مديرة سياسة الخصوصية في شركة "ميتا" ميليندا كليباو أن الشركة كانت تقوم بجمع الصور والنصوص العامة من فيسبوك وإنستغرام لتدريب نماذج الذكاء الاصطناعي الخاصة بها لسنوات أكثر مما كان متوقعا.

ورغم تأكيدها أنها كانت تبلغ المستخدمين عن سياسة بيانات الذكاء الاصطناعي الخاصة بها من خلال رسائل البريد الإلكتروني، والرسائل النصية، ولافتات على موقعها الإلكتروني، فإن "لينكد إن" لا تزال تفاجئ عديدا من المستخدمين، ومن خلال تحديثاتها الجديدة فهي تعطي المستخدمين وقتا أقل للاستجابة مما قدمته حتى شركتها الأم مايكروسوفت، حسب ما أفادت به واشنطن بوست.

ففي أغسطس/آب الماضي، أعلنت مايكروسوفت أنها ستبدأ في تدريب أداة مساعد الذكاء الاصطناعي الخاصة بها بناء على التفاعلات التي أجراها الأشخاص معها، بالإضافة إلى البيانات التي تم جمعها من استخدام محرك بحث "بينغ" ومصدر الأخبار "مايكروسوفت ستارت".

لكنها وعلى عكس "لينكد إن" قالت إنها ستبلغ المستخدمين بخيار الانسحاب من جمع البيانات في أكتوبر/تشرين الأول، وإنها ستبدأ فقط في تدريب نماذج الذكاء الاصطناعي الخاصة بها بعد 15 يوما من توفر الخيار.

إعلان

وقالت واشنطن بوست "لماذا لم تقم لينكد إن بإطلاق مماثل بمعلومات مستنيرة؟". كما أشارت أن سنابر لم يرغب في الإفصاح عما إذا كان قد تم النظر في ذلك، واكتفى بقوله إنهم -يعني الشركة- يركزون على إمكانية تحسين ذلك في المرة القادمة.

مستخدمو "لينكد إن" في الولايات المتحدة، بعكس الاتحاد الأوروبي، أو المنطقة الاقتصادية الأوروبية، أو سويسرا يتمتعون بخيار إلغاء الاشتراك في شاشة الإعدادات الخاصة بهم (أسوشيتد برس) تاريخ "لينكد إن" في العقوبات

هذه ليست المرة الأولى التي تقوم فيها منصة "لينكد إن" بإثارة الشكوك والتساؤلات حول كيفية تعاملها مع إدارة بيانات المستخدمين، وقد تم تقديم شكاوى ضد الشركة بسبب انتهاكها لقانون حماية البيانات العامة.

ففي سنة 2018 قدمت منظمة الحقوق الرقمية الفرنسية "لاكوادراتور دو نت" شكوى ضد "لينكد إن" بسبب انتهاكها لقانون حماية البيانات، وكانت هيئة حماية البيانات الفرنسية قد أحالت القضية إلى أيرلندا حيث يقع المقر الرئيسي الأوروبي للمنصة.

لم تنته هذه القضية بالرغم من مرور 6 سنوات عليها، إذ فرضت لجنة حماية البيانات في أيرلندا يوم 24 أكتوبر/تشرين الأول على "لينكد إن" غرامة مالية تقدر بـ310 ملايين يورو، وذلك بسبب عدم إبلاغ المستخدمين بكيفية استخدام بياناتهم في التحليل السلوكي والإعلانات المستهدفة، وهو ما يشكل انتهاكا للائحة الاتحاد الأوروبي العامة لحماية البيانات.

وحسب مفوضية حماية البيانات، فشلت "لينكد إن" في الوفاء بالمعايير المطلوبة عند الحصول على موافقات صحيحة من المستخدمين، ووجدت الجهة الرقابية أن مصالح عملاق وسائل التواصل الاجتماعي تم التغلب عليها من قبل مصالح وحقوق وحريات الأفراد المعنيين بالبيانات.

بالإضافة إلى الغرامة والتي تعد واحدة من أكبر الغرامات في تاريخ اللائحة العامة لحماية البيانات، تلقت "لينكد إن" توبيخا رسميا، إذ يجب عليها ضمان الامتثال الكامل لقوانين اللائحة حسب ما ذكره موقع "أورو نيوز" الأوروبي.

إعلان

من جهتها، صرحت "لينكد إن" للموقع نفسه بأن الشركة كانت ملتزمة باللائحة العامة لحماية البيانات، وأنها تعمل لضمان توافق ممارساتها الإعلانية مع قرار لجنة حماية البيانات الأيرلندية قبل الموعد النهائي الذي حددته.

كيف تنسحب من تدريب الذكاء الاصطناعي على "لينكد إن"؟

إذا كنت لا ترغب في أن تستخدم "لينكد إن" بياناتك الخاصة لتدريب الذكاء الاصطناعي التوليدي الخاص بها لإنشاء محتوى باستخدام منشوراتك، إليك كيفية إيقاف التشغيل:

قم بتسجيل الدخول إلى حساب "لينكد إن" الخاص بك. انقر على صورة ملفك الشخصي في شريط القوائم العلوي، ثم اختر "الإعدادات والخصوصية" (Setting and Privacy) في القائمة المنسدلة. اختر خصوصية البيانات (Data privacy) من القائمة الموجودة على الجانب الأيسر. حدد خيار "البيانات لتحسين الذكاء الاصطناعي التوليدي" (Data for Generative AI Improvement) في أسفل قسم "كيف تستخدم لينكد إن بياناتك" (How LinkedIn uses your data). قم بإيقاف تشغيل خيار "استخدم بياناتي لتدريب نماذج إنشاء المحتوى بالذكاء الاصطناعي" (Use my data for training content creation AI models).

من الضروري أن يجد المستخدمون ميزانا عادلا يحترم الاستفادة من التطورات التكنولوجية من جهة، وحماية بياناتهم الشخصية من جهة أخرى، خاصة مع تسارع وتيرة التقدم في تكنولوجيا الذكاء الاصطناعي.

ومن حقهم أيضا أن يبقوا على دراية بحقوقهم وحريتهم في الاختيار، ومثلما تسعى المنصات الرقمية إلى تحسين خدماتها، فيجب أن تسعى لجعل الشفافية واحترام خصوصية المستخدمين على رأس أولوياتها.

المصدر: الجزيرة

كلمات دلالية: حريات لتدریب نماذج الذکاء الاصطناعی الذکاء الاصطناعی الخاصة بها الذکاء الاصطناعی التولیدی تدریب الذکاء الاصطناعی بیانات المستخدمین سیاسة الخصوصیة حمایة البیانات من المستخدمین واشنطن بوست لینکد إن من خلال فی ذلک

إقرأ أيضاً:

محاكمة أشباح الذكاء الاصطناعي

لا يمكن إنكار إيجابيات التقدم التكنولوجي الكثيرة، كما لا يمكن تجاهل سلبياتها المتمثلة في تعطيل الكثير من المهارات والكفاءات البشرية، فحين ظهرت الآلات الحاسبة ازداد اعتماد الإنسان عليها متجاوزا تنمية مهارات الحساب وحل المعادلات الرياضية، وحين تطورت أجهزة الهاتف المحمولة استغنى كثير من الناس عن الساعات والمذكرات اليومية والتقويم، بل حتى الاستدلال الجغرافي المكاني وتحديد المواقع توقفا اعتمادا على التطبيقات الذكية لتحديد ومسح المواقع جغرافيا، كما استعاض الإنسان بذاكرة الأجهزة المحمولة عن ذاكرته الواقعية الحيّة.

ويأتي الذكاء الاصطناعي ليحمل عنا عبء الكثير من المسؤوليات توفيرا للجهد والمال، وليسرق منا -في ذات الوقت-كثيرا من المهارات الحياتية والكفاءات المعرفية، تنسيق الكتابة والتدقيق والتصحيح الإملائي، مراجعة وتلخيص الكتب الموسوعية والمصادر المعرفية، الترجمة والعروض المصوّرة للأفكار والتصورات البحثية والمشاريع، كتابة الرسائل وصياغة الخطب، جدولة الأعمال وتنسيقها والتذكير بأوقاتها وفقا لأولوية كل منها، كل هذه الأشكال من الراحة الرقمية أسلمت الإنسان إلى الدعة مستعيضا بالآلة عن ذاته، وعن ذاته تحديدا بذات رقمية ظن بها القدرة على تمثيله خير تمثيل في أي معرض بأي زمان ومكان.

وهذه الصورة ليست محض صورة ذهنية نمطية متخيلة لما يمكن أن يفعل الذكاء الاصطناعي ببعض عشاقه ومريديه، بل هي واقع صرنا نعايشه في كثير من المواقف ومنها ما حدث حاليا حينما استشاطت قاضية في محكمة استئناف بولاية نيويورك غضبًا بعد محاولة أحد المُدّعين استخدام مقطع رمزي مُصمم بواسطة الذكاء الاصطناعي للدفاع عن قضيته، متسببا بحالة من البلبلة داخل قاعة المحكمة ظنا من القضاة بأنه يقدم حجته شخصيا أو عن طريق محاميه، لكن الرجل ويدعى جيروم دي وال لديه محامٍ، كان يأمل أن تُقدم الصورة الرمزية حُجة مُحكمة، معتذرا لاحقًا كتابيًا للمحكمة، قائلاً إنه لم يقصد أي ضرر، وفقًا لوكالة أسوشيتد برس، إنما حاول جاهدا إنشاء نسخة رقمية طبق الأصل تشبهه، لكنه لم يتمكن من القيام بذلك قبل جلسة الاستماع، وقال إنه يأمل أن يقدم نموذج الذكاء الاصطناعي حججًا أكثر دقة دون التلعثم في الكلمات أو التذمر مما قد يصدر عن الإنسان الطبيعي!

إن غضب القاضية وصدمة الحضور بذلك انعكاس لصدمة الجميع من تسارع التطور في عالم الذكاء الاصطناعي، ذلك التطور الذي قد تتعطل معه الكثير من القدرات والمهارات البشرية التي لا يمكن للآلة تعويضها بأي حال من الأحوال مهما تطورت برمجياتها وحُدِّثت مُدخلاتها المعرفية، كما أنها صدمة القلق القادم من قدرة الذكاء الاصطناعي على التضليل بصنع النسخ المطابقة للواقع في مجالات مختلفة، لكن مبلغ الصدمة أن تتمثل إنسانا كاملا بمشاعره ومخاوفه، وتبريراته ومنطقه، في قدرتها (إن حصلت) على الربط والتحليل والاستنتاج والجدل وحتى التقاضي، ثم إن كانت قاعدة البيانات لكل هذه البرمجيات موجهة بشريا فكيف يمكن توافر ضمانات لاعتماد برمجيات عادلة غير منحازة ولا مؤدلجة؟ ثم خطورة ورعب الوجه الآخر لهذه التقنيات حين تكون مدفوعة بسلطة مادية أو نفوذ سياسي يحركها وفقا للمستهدف من مساع ومصالح.

هل سيكون هذه المشهد من المحكمة واستخدام الناطق البديل بالذكاء الاصطناعي -بعد تغذيته بالمعلومات والحجج- مشهدا طبيعيا بعد أمد؟ وهل يمكن للتقاضي ذاته بكل أطرافه أن يشهد هذه الرقمنة الصادمة في حديّتِها وعدم استيعابها للحضور البشري الواقعي؟ هل نتحول مع عالم البرمجيات والشفرات البرمجية إلى مجرد أرقام تعبث بها الآلات وتحركها المصالح الاقتصادية؟

ختاما: يقينا ليست هذه التساؤلات أول المطروح في عالم التقنية الحديثة والذكاء الاصطناعي والثورة الرقمية، ولن تكون الأخيرة بالضرورة، لكنها نافذة نحاول من خلالها تلمس الثابت والمتحول في هذه اللعبة المعاصرة الآخذة بأعطاف المستقبل إلى عالم مجهول نترقبه، ولا ندرك كنه تفاصيله بعد، لكننا نتمنى استبقاء الثابت القيمي والأخلاقي في هذه المعادلة الرقمية معقدة الأطراف.

حصة البادية أكاديمية وشاعرة عمانية

مقالات مشابهة

  • الذكاء الاصطناعي يداعب خيال صناع الدراما
  • «ميتا» تعلن اعتزامها تدريب نماذج الذكاء الاصطناعي على المحتوى العام للمستخدمين
  • ميتا تدرب نماذج الذكاء الاصطناعي بمحتوى لمستخدمين أوروبيين
  • أوبن أيه آي تقيد الوصول إلى نماذج الذكاء الاصطناعي المستقبلية
  • مراكز البيانات.. تلتهم طاقة هائلة لتغذية الذكاء الاصطناعي
  • محاكمة أشباح الذكاء الاصطناعي
  • مايكروسوفت: نماذج الذكاء الاصطناعي تواجه تحديات في اكتشاف ثغرات البرامج
  • وزير الاتصالات يشهد ختام مؤتمر الذكاء الاصطناعي وعلوم البيانات بجامعة مصر للمعلوماتية
  • إطلاق أحدث نماذج الذكاء الاصطناعي.. مخصص للتعامل مع «الأوامر الصوتية»
  • أجهزة o4-mini و o3.. بداية مرحلة جديدة في إنتاج الذكاء الاصطناعي من OpenAI