علوم وتكنولوجيا، دعوة قضائية ضد Google تزعم سرقتها بيانات المستخدمين لتدريب أدوات الذكاء الاصطناعى،تعرضت شركة Google لدعوى قضائية واسعة النطاق زعمت أن عملاق التكنولوجيا قام بسحب .،عبر صحافة مصر، حيث يهتم الكثير من الناس بمشاهدة ومتابعه الاخبار، وتصدر خبر دعوة قضائية ضد Google تزعم سرقتها بيانات المستخدمين لتدريب أدوات الذكاء الاصطناعى، محركات البحث العالمية و نتابع معكم تفاصيل ومعلوماته كما وردت الينا والان إلى التفاصيل.

دعوة قضائية ضد Google تزعم سرقتها بيانات المستخدمين...

تعرضت شركة Google لدعوى قضائية واسعة النطاق زعمت أن عملاق التكنولوجيا قام بسحب بيانات من ملايين المستخدمين دون موافقتهم وانتهاك قوانين حقوق الطبع والنشر من أجل تدريب وتطوير منتجات الذكاء الاصطناعي الخاصة به.

 

وتم رفع الدعوى الجماعية المقترحة ضد Google ، وشركتها الأم Alphabet ، وشركة DeepMind التابعة لشركة Google للذكاء الاصطناعي في محكمة فيدرالية في كاليفورنيا مساء أمس الثلاثاء ، وتم رفعها من قبل Clarkson Law Firm. ورفعت الشركة دعوى مماثلة في وقت سابق ضد شركة OpenAI ، صانع ChatGPT ، الشهر الماضي. (لم ترد شركة OpenAI من قبل على طلب للتعليق على الدعوى).

 

وتزعم الشكوى أن Google "كانت تسرق سرًا كل شيء تم إنشاؤه ومشاركته على الإنترنت من قبل مئات الملايين من الأمريكيين" واستخدمت هذه البيانات لتدريب منتجات الذكاء الاصطناعي الخاصة بها ، مثل chatbot Bard، و تدعي الشكوى أيضًا أن Google قد اتخذت "بصمتنا الرقمية بالكامل تقريبًا" ، بما في ذلك "الأعمال الإبداعية والمكتوبة بنسخ الإعلانات" لبناء منتجات الذكاء الاصطناعي الخاصة بها.

 

 ولم يرد ممثلو Google و Alphabet و DeepMind على الفور على طلب للتعليق.

 

وتشير الشكوى إلى تحديث حديث لسياسة خصوصية Google التي تنص صراحة على أن الشركة قد تستخدم المعلومات المتاحة للجمهور لتدريب نماذج وأدوات الذكاء الاصطناعي الخاصة بها مثل Bard.

 

ردًا على تقرير Verge السابق عن التحديث ، قالت الشركة إن سياستها "كانت شفافة منذ فترة طويلة بأن Google تستخدم المعلومات المتاحة للجمهور من الويب المفتوح لتدريب نماذج اللغة لخدمات مثل Google Translate. يوضح هذا التحديث الأخير ببساطة تضمين خدمات أحدث مثل Bard ".

 

وتأتي الدعوى القضائية في الوقت الذي حظيت فيه مجموعة جديدة من أدوات الذكاء الاصطناعي باهتمام كبير في الأشهر الأخيرة لقدرتها على إنشاء أعمال مكتوبة وصور استجابة لمطالبات المستخدم، النماذج اللغوية الكبيرة التي تدعم هذه التكنولوجيا الجديدة قادرة على القيام بذلك من خلال التدريب على مجموعة كبيرة من البيانات عبر الإنترنت.

 

ومع ذلك ، في هذه العملية ، تقوم الشركات أيضًا بإجراء تدقيق قانوني متزايد بشأن قضايا حقوق النشر من الأعمال التي تم مسحها في مجموعات البيانات هذه ، بالإضافة إلى استخدامها الواضح للبيانات الشخصية وربما الحساسة من المستخدمين العاديين ، بما في ذلك البيانات من الأطفال ، وفقًا لـ Google دعوى قضائية.

 

قال تيم جيوردانو ، أحد المحامين في كلاركسون الذين رفعوا الدعوى ضد Google ، لشبكة CNN في مقابلة: "تحتاج Google إلى فهم أن مصطلح" متاح للجمهور "لم يقصد مطلقًا حرية الاستخدام لأي غرض من الأغراض". "معلوماتنا الشخصية وبياناتنا هي ملكنا ، وهي قيمة، ولا يحق لأحد أن يأخذها ويستخدمها لأي غرض".

 

تسعى الدعوى إلى الحصول على تعويض زجري في شكل تجميد مؤقت للوصول التجاري إلى أدوات الذكاء الاصطناعي التوليدية من Google وتطويرها تجاريًا مثل Bard. كما أنها تسعى للحصول على تعويضات غير محددة ومدفوعات كتعويض مالي للأشخاص الذين تزعم Google اختلاس بياناتهم. وتقول الشركة إنها جمعت ثمانية مدعين ، بمن فيهم قاصر.

 

وقارن جيوردانو الفوائد والأضرار المزعومة لكيفية فهرسة Google للبيانات عبر الإنترنت لدعم محرك البحث الأساسي الخاص بها مع الادعاءات الجديدة بأنها تقوم بإلغاء البيانات لتدريب أدوات الذكاء الاصطناعي.

 

وقال إنه باستخدام محرك البحث الخاص به، يمكن لـ Google "تقديم رابط منسوب إلى عملك يمكن أن يدفع شخصًا ما لشرائه أو التعامل معه". وأضاف جيوردانو أن جمع البيانات لتدريب أدوات الذكاء الاصطناعي يؤدي إلى إنشاء "نسخة بديلة من العمل تغير جذريًا الحوافز لأي شخص يحتاج إلى شراء العمل".

 

في حين أن بعض مستخدمي الإنترنت قد اعتادوا على جمع بياناتهم الرقمية واستخدامها لنتائج البحث أو الإعلانات المستهدفة ، فقد لا يكون الأمر كذلك بالنسبة لتدريب الذكاء الاصطناعي. قال جيوردانو: "لم يكن من الممكن أن يتخيل الناس أن معلوماتهم ستُستخدم بهذه الطريقة".

المصدر: صحافة العرب

كلمات دلالية: موعد عاجل الدولار الامريكي اليوم اسعار الذهب اسعار النفط مباريات اليوم جدول ترتيب حالة الطقس أدوات الذکاء الاصطناعی

إقرأ أيضاً:

أخلاقيات الذكاء الاصطناعي

في مقالي السابق بعنوان: «الفن والذكاء الاصطناعي» تناولت هذا الموضوع من بُعد واحد فقط، وهو التساؤل مدى مشروعية الفن المصنوع وفقًا للذكاء الاصطناعي من الناحية الإبداعية، ونفيت عن هذا الفن المصنوع صفة الإبداع، مع التسليم بأهميته ودوره في مجالات معينة لا تُحسَب على الفنون الجميلة. وبوسعنا هنا التساؤل عن مدى مشروعية الفن المصنوع وفقًا للذكاء الاصطناعي من الناحية الأخلاقية. غير أن هذا سيكون مجرد مثال من الأمثلة على مسألة «أخلاقيات الذكاء الاصطناعي» التي تتعدد وتتباين في تطبيقاتها بناءً على تعدد وتباين مجالات الذكاء الاصطناعي ذاته، إذ إنها لا تقتصر على مجال الفن وحده، وإنما تمتد لتشمل كل المجالات العلمية والمعرفية عمومًا التي تؤثر في كل مناحي حياتنا، فهي تمتد لتشمل على سبيل المثال: عملية التفاعل الأخلاقي مع الروبوتات الخاصة بالرعاية الطبية والاجتماعية؛ واستخدام الأسلحة في الحروب؛ فضلًا عن استخدام برامج الذكاء الاصطناعي في عملية التزييف المتقن في مجال الفن والثقافة.

لعل الأخلاقيات المتعلقة باستخدام الآلة الذكية هي أكثر المسائل التي ترِد على الأذهان حينما نتطرق إلى مناقشة أخلاقيات الذكاء الاصطناعي. وهناك اعتقاد شائع بأنه حينما يتم تصميم الآلة الذكية لكي تتخذ مواقف وقرارات، فإن كل شيء يكون على ما يُرَام؛ لأن الناس يعتقدون أن الآلات - بخلاف البشر- لا ترتكب أخطاء، ولا تتورط في اتخاذ قرارات منحازة. ولكن هذا الاعتقاد واهم؛ لأن الآلات الذكية المصممة لكي تعمل باعتبارها «روبوتات» هي آلات من صنع البشر، وهي يتم تزويدها بمعلومات من صنع البشر. وأنا أستخدم هنا كلمة «معلومات» على سبيل التبسيط؛ لأن ما يتم تزويد الآلة به هو برامج خوارزمية شديدة التعقيد، والآلة تكون مصممة على هذا الأساس وعلى الغرض الذي أُنشِئت من أجله. وعلى هذا، فإن تصميم الآلة نفسه يكون عُرضة للتحيز الذي يمكن أن يحدث بطريقة قصدية أو بطريقة غير قصدية. ولهذا يرى بعض الباحثين أن الآلة تواجه المشكلات الأخلاقية نفسها التي نواجهها نحن البشر؛ وهي في النهاية تتخذ القرارات التي سنتخذها أو نود أن نتخذها لو كنا في موقفها.

غير أن المسألة الأخلاقية هنا أعقد من ذلك بكثير؛ لأن برمجة الآلات الذكية وفقًا لخوارزميات معينة لا يعني أن هذه الآلات سوف تتخذ دائمًا قرارًا واحدًا ثابتًا وصائبًا باستمرار؛ لأنها قد تتلقى معطيات مستمدة من العالم الخارجي لا تتطابق مع برمجة الآلات للاستجابة للمعطيات؛ إذ إن المعطيات المستمدة من العالم الخارجي قد تكون ملتبسة مع معطيات أخرى مشابهة بحيث لا تستطيع الآلة أن تحدد بدقة المعطيات المقصودة؛ ويكون عليها أن تتخذ قرارًا قد يكون خاطئًا. ويتضح هذه بوجه خاص في استخدام الأسلحة المبرمجة وفقًا للذكاء الاصطناعي، والتي تتصرف ذاتيًّا؛ ومن ثم تصبح عُرضة للخطأ. وليس ببعيد ما يحدث في عالمنا الراهن؛ إذ نجد أن إسرائيل تستخدم هذا النوع من الأسلحة في قتل الفلسطينيين، بل استخدمته في قتل فريق من أعضاء منظمة الغذاء العالمي، متذرعة بهذه الحجة العلمية، وهي أن هذه الأسلحة قابلة لارتكاب الخطأ، ولكنه ليس خطأ بشريّا، أي أنها ليست مبرمجة وفقًا لهذا القصد.

ولكن أخلاقيات الذكاء الاصطناعي تصبح أكثر تعقيدًا حينما ننظر في استخدام الروبوتات في مجال الرعاية الطبية والاجتماعية بوجه عام. ولقد تطورت صناعة هذه الروبوتات وبرمجتها بشكل مذهل، بحيث أصبحنا نجد في عالمنا الآن روبوتات تشبه البشر من الجنسين بمختلف أشكالهم وألوانهم، وهي روبوتات مبرمَجة على أداء الخدمات والرعاية الفائقة، بل التعبير عن المشاعر المتبادلة. وقد أطلق كل هذا عنان الخيال لدى السينمائيين الذين صنعوا أفلامًا تصور هذا الموضوع وتتنبأ بما يمكن أن يؤول إليه في المستقبل القريب. وهناك عشرات الأفلام التي تمثلت هذا الموضوع خلال العقد الأخير، ونال بعضها جوائز الأوسكار. وهناك فيلم - لا يحضرني اسمه - يعد مثالًا جيدًا هنا. يحكي الفيلم عن استعانة زوجين بروبوت يقوم بالخدمة والرعاية الاجتماعية الفائقة، بناءً على إعلان شركة صانعة عن المزايا العديدة لهذا الروبوت الذي هو أحدث إنتاجها. ولأن الروبوت كان مصممًا لأداء كل ما هو مطلوب منه بكل دقة، بل كان أيضًا مصممًا للتعبير عن مشاعره من خلال تعبير صوته ووجهه أيضًا؛ فقد نشأت علاقة عاطفية بين الروبوت والزوجة، واعتاد كل منهما البقاء مع الآخر. وليس ببعيد عنا ما تداولته الأخبار مؤخرًا عن زواج بين شاب ياباني والأنثى الروبوت التي يرافقها! ومثل هذا النوع من الأخبار يتكرر من حين لآخر هنا وهناك.

ولكن أخلاقيات الذكاء الاصطناعي في مجال الفن تتبدى بشكل مختلف، ودور العنصر الإنساني فيه يكون أكثر اتساعًا، والمشكلة الأخلاقية الأساسية هنا تكمن في إمكانية استخدام الآلة الذكية (المبرمجة) في عملية التزييف وانتهاك حقوق الملكية الفكرية: فلقد أصبح من المألوف قيام بعض المحترفين بسرقة «التيمة الأساسية» في لوحة ما، وإدخال بعض التعديلات والرتوش على تفاصيل اللوحة لكي تبدو في النهاية وكأنها عمل إبداعي! كما أن مستخدمي الذكاء الاصطناعي يمكنهم محاكاة أسلوب فنان ما وإنتاج أعمال ينسبونها إليه، ولكن من حسن الحظ أن هناك برامج في الذكاء الاصطناعي نفسه يمكنها الكشف عن هذا التزييف.

كل ما سبق يعني أن الذكاء الاصطناعي هو- كالتكنولوجيا عمومًا- أداة محايدة يمكن حسن استخدامها أو إساءة استخدامها؛ وبالتالي فإن هناك حاجة إلى وضع حدود للذكاء الاصطناعي، من خلال مبادئ تشريعية ومواثيق أخلاقية دولية لها طبيعة إلزامية.

د. سعيد توفيق أستاذ علم الجمال والفلسفة المعاصرة بجامعة القاهرة

مقالات مشابهة

  • البرازيل تمنع Meta من استخدام منشورات البرازيليين على وسائل التواصل الاجتماعي.. ما القصة؟
  • مايكروسوفت تستثمر 2.4 مليار دولار بمراكز بيانات في إسبانيا
  • رئيس قسم AI في مايكروسوفت يوضح قانونية استخدام محتوى الإنترنت لتدريب النماذج
  • أخلاقيات الذكاء الاصطناعي
  • اشتراط كتابة البيانات بالعربية.. تعديل اللائحة الفنية لسلامة أدوات المطبخ
  • «ميتا» تختبر روبوتات الذكاء على إنستجرام
  • الجبورى: تقاس قدرات الدول وإمكاناتها بمدى تحكمها في تكنولوجيا المعلومات والإستفادة من البيانات الضخمة
  • جوجل تستثمر في شركة الطاقة الشمسية التايوانية لتعزيز الطاقة الخضراء
  • هجمات 7 أكتوبر.. دعوى قضائية على 3 دول
  • أفضل 5 تطبيقات ذكاء اصطناعي لأجهزة الآيفون والأندرويد