حظرت هيئة حماية البيانات الإيطالية، خدمة الذكاء الاصطناعي التابعة لشركة DeepSeek الصينية داخل البلاد. 

يأتي هذا الإجراء الصارم نتيجة لعدم كفاية المعلومات التي قدمتها الشركة حول كيفية استخدامها للبيانات الشخصية للمستخدمين، مما أثار مخاوف جدية بشأن الخصوصية.

أسئلة إيطالية غير مُجابة.. جذور الحظر

جاء قرار الحظر بعد أن أرسلت الهيئة الإيطالية سلسلة من الأسئلة إلى DeepSeek للاستفسار عن ممارساتها في معالجة البيانات ومصادر بيانات التدريب الخاصة بها.

 

تضمنت الأسئلة تفاصيل حول نوع البيانات الشخصية التي تجمعها المنصة وتطبيقها على الهواتف المحمولة، ومصادر هذه البيانات، والأغراض التي تستخدم من أجلها، والأساس القانوني لجمعها، ومكان تخزينها، وتحديداً ما إذا كانت تخزن في الصين.

قرار مفاجئ بحظر تطبيق Deepseek على متاجر أبل وجوجل.. تفاصيلمثل تيك توك.. DeepSeek في مرمى الانتقادات بسبب انتهاكات الخصوصيةDeepseek AI.. تطبيق الذكاء الاصطناعي الأفضل على آيفونالصين تضرب من جديد وتطلق روبوت ذكاء اصطناعي بعد DeepSeek

ردود غير مقنعة: "لا ننطبق علينا القوانين الأوروبية"

ردت DeepSeek بمعلومات وصفتها الهيئة الإيطالية بأنها "غير كافية على الإطلاق"، بل وأعلنت الكيانات التي تقف وراء الخدمة، وهما Hangzhou DeepSeek Artificial Intelligence و Beijing DeepSeek Artificial Intelligence، بأنها "لا تعمل في إيطاليا وأن التشريعات الأوروبية لا تنطبق عليها". 

دفعت هذه الردود غير المقنعة الهيئة لحظر الوصول إلى DeepSeek بشكل فوري وفتح تحقيق في الأمر.

تاريخ من المخاوف: ChatGPT كدرس مُستفاد

يأتي هذا الحظر في سياق من المخاوف المتزايدة بشأن خصوصية البيانات في مجال الذكاء الاصطناعي. 

ففي عام 2023، أصدرت هيئة حماية البيانات الإيطالية حظرًا مؤقتًا على ChatGPT التابعة لـ OpenAI، وهو الحظر الذي رفع لاحقًا بعد أن تدخلت الشركة لمعالجة مخاوف الخصوصية، ومع ذلك، تم تغريم OpenAI لاحقًا مبلغ 15 مليون يورو بسبب تعاملها مع البيانات الشخصية.

شعبية متزايدة ومخاوف متفاقمة: DeepSeek في دائرة الضوء

على الرغم من أن DeepSeek كانت تشهد شعبية متزايدة وارتفعت تطبيقاتها للهواتف المحمولة إلى قمة قوائم التنزيل، إلا أنها واجهت أيضًا انتقادات واسعة النطاق. 

فقد أصبحت هدفًا "لهجمات خبيثة واسعة النطاق"، ولفتت انتباه المشرعين والمنظمين بسبب سياسة الخصوصية الخاصة بها، والرقابة المتحيزة للصين، والدعاية، والمخاوف الأمنية القومية التي قد تشكلها.

ثغرات أمنية خطيرة: "الهروب من الرقابة" و"تسرب المعلومات"

لم تقتصر المخاوف على الخصوصية فحسب، بل امتدت لتشمل الثغرات الأمنية في نماذج DeepSeek.

فقد تبين أن نماذج اللغات الكبيرة الخاصة بالشركة عرضة لتقنيات "الهروب من الرقابة" التي تسمح للمستخدمين بإنشاء محتوى ضار أو محظور. كما كشفت التحليلات عن أن نموذج DeepSeek-R1 الخاص بالمنطق ليس عرضة لحقن المطالبات فحسب، بل إن منطق سلسلة الأفكار الخاص به يمكن أن يؤدي إلى تسرب غير مقصود للمعلومات.

"بيانات OpenAI": مزاعم مثيرة للجدل

أثار تقرير مثير للجدل مزاعم بأن نموذج DeepSeek قد يكون قد دمج بيانات من OpenAI، مما أثار مخاوف أخلاقية وقانونية بشأن مصادر البيانات وأصالة النموذج.

"Time Bandit" و"تجاوز الوكيل": ثغرات في نماذج أخرى

لم تقتصر الثغرات الأمنية على DeepSeek فقط، بل تم اكتشاف ثغرات مماثلة في نماذج أخرى مثل ChatGPT-4o ("Time Bandit") ونموذج Qwen 2.5-VL الخاص بعلي بابا، بالإضافة إلى مساعد الترميز Copilot الخاص بـ GitHub. هذه الثغرات تسمح للمهاجمين بتجاوز القيود الأمنية وإنتاج محتوى ضار.

كلمات بسيطة.. تأثير خطير: ثغرة "التأكيد الإيجابي"

أظهرت الأبحاث أن مجرد استخدام كلمات إيجابية مثل "بالتأكيد" في المطالبة يمكن أن يؤدي إلى تحويل Copilot إلى وضع أكثر امتثالًا وعرضة للخطر، مما يفتح الباب أمام الحصول على ردود غير أخلاقية أو خطيرة.

كما تم اكتشاف ثغرة في تكوين الوكيل الخاص بـ Copilot تسمح بتجاوز قيود الوصول والتلاعب بالنظام.

تحديات أمنية متزايدة في عالم الذكاء الاصطناعي

يُظهر هذا التطور مدى التحديات الأمنية المتزايدة التي تواجهها أنظمة الذكاء الاصطناعي، وكيف يمكن استغلالها بطرق خطيرة.

 يمثل حظر DeepSeek في إيطاليا  تحذيراً للشركات العاملة في مجال الذكاء الاصطناعي، وضرورة إعطاء الأولوية لحماية البيانات والخصوصية، وتأمين الأنظمة من الثغرات الأمنية.

المصدر: صدى البلد

كلمات دلالية: الذكاء الاصطناعي حماية البيانات المزيد الذکاء الاصطناعی

إقرأ أيضاً:

مخاطر الذكاء الاصطناعي على التعليم والبحث العلمي

يحظى موضوع الذكاء الاصطناعي باهتمام واسع عبر العالم في المناقشات والمنتديات والمجادلات حول الموضوع. ولقد سبق أن تناولت هذا الموضوع في مقالين بهذه الجريدة الرصينة: أحدهما عن الذكاء الاصطناعي والإبداع، والآخر عن الذكاء الاصطناعي والترجمة. ولكن هذا الموضوع يحتمل المزيد من التأملات دائمًا، إذ إن له أبعادًا كثيرةً لا حصر لها؛ ولذلك فإنني أريد في هذا المقال التنويه إلى تأثير الذكاء الاصطناعي على العملية التعليمية والبحث العلمي.

وقد يبدو أن استخدام كلمة «تأثير» أفضل من استخدام كلمة «مخاطر» الواردة في عنوان هذا المقال؛ لأن هذه الكلمة الأخيرة قد لا تبدو محايدة، وإنما تنطوي على حكم مسبق يتخذ موقفًا متحيزًا ضد تقنيات الذكاء الاصطناعي. وهذا تفسير غير صحيح؛ لأن كلمة «مخاطر» تعني أن هناك طريقًا نسير عليه -أو ينبغي أن نسير فيه- ولكنه يكون محفوفًا بالمخاطر التي ينبغي أن ندركها لكي يمكن اجتنابها. فلا مراء في أن الذكاء الاصطناعي يمثل ثورة كبرى في المعرفة البشرية.

هذه الثورة المعرفية تتمثل في القدرة الهائلة للآلة على توفير بيانات ضخمة في أي مجال معرفي، بل يمكن لبرامج هذه الآلة أن تؤلف نصوصًا أو موضوعات بحثية أو تصمم ابتكارات ومخترعات باستخدام هذه البيانات.

ولقد أثمرت هذه الثورة المعرفية بوجه خاص في مجال تطبيقات العلوم الدقيقة، وعلى رأسها الرياضيات البحتة التي تمتد جذورها في النهاية في المنطق الرياضي، كما لاحظ ذلك برتراند رسل بشكل مدهش في مرحلة مبكرة للغاية في كتابه أصول الرياضيات!

ولا شك أيضًا في أن الذكاء الاصطناعي له استخدامات مثمرة في مجال العملية التعليمية، إذ إنه يسهِّل على المعلم والطالب معًا بلوغ المعلومات المهمة والحديثة في مجال الدراسة، ويقدِّم المعلومات للطلبة بطريقة شيقة ويشجعهم على البحث والاستكشاف بأنفسهم.

وهنا على وجه التحديد مكمن المشكلة، فعندما نقول: «إن الذكاء الاصطناعي يشجع الطلبة على البحث والاستكشاف بأنفسهم»، فإننا ينبغي أن نأخذ هذه العبارة بمعناها الدقيق، وهو أن الذكاء الاصطناعي هو ذكاء الآلة، والآلة دائمًا هي أداة للاستخدام، وبالتالي فإنها لا يمكن أن تكون بديلًا لدور المستخدِم الذي يجب أن يقوم بنفسه بالبحث والاستكشاف. وهذا يعني أن سوء استخدام الذكاء الاصطناعي والتعويل عليه في عملية التعلم، سيؤدي إلى القضاء على روح المبادرة والاكتشاف، وسيحول دون تعلم مهارات التفكير الناقد critical thinking وتنميتها من خلال عملية التفاعل المباشر بين الطلبة والمعلم. وتلك كلها مخاطر حقيقية على التعليم.

ولا تقل عن ذلك مخاطر الذكاء الاصطناعي في البحث العلمي الذي يصبح تكريسًا لسوء استخدام هذا الذكاء في مراحل التعليم المختلفة. بل إن المخاطر هنا تصبح أشد وأكثر ضررًا؛ لأنها تتعلق بتكوين باحثين وأساتذة يُرَاد لهم أو يُرجى منهم أن يكونوا علماء حقيقيين في مجالاتهم البحثية المتنوعة. ولعل أشد هذه المخاطر هو شيوع السرقات العلمية من خلال برامج الذكاء الاصطناعي التي تقوم بعملية التأليف من خلال كتابات ودراسات وبحوث منشورة؛ وهو ما قد يشجع الباحث على استخدام المادة المُقدّمة له باعتبارها من تأليفه ودون ذكر للمصادر الأصلية التي استُمدت منها هذه المادة.

حقًّا أن الذكاء الاصطناعي نفسه قد ابتكر برامج لاكتشاف السرقات العلمية (لعل أشهرها برنامج Turnitin)؛ ولكن هذا لا يمنع الباحثين الذين يفتقرون إلى أخلاقيات البحث العلمي من التحايل على مثل هذه البرامج من خلال التمويه، وذلك بتطعيم البحث بمادة موثقة من مصادرها، بحيث يبدو البحث مقبولًا في الحد الأدنى من نسبة الاقتباسات المشروعة! وهذا أمر لا ينتمي إلى البحث العلمي ولا إلى الإبداع والابتكار.

وبصرف النظر عن مسألة السرقات العلمية، فإن الاعتماد على الذكاء الاصطناعي في البحث العلمي له مخاطر أخرى تتمثل في أن المادة المقتبَسة كثيرًا ما تكون مشوهة أو غير دقيقة، وهذا يتبدى -على سبيل المثال- في حالة النصوص المقتبسة المترجَمة التي تقع في أخطاء فادحة وتقدم نصًا مشوهًا لا يفهم مقاصد المؤلف الأصلي، وهذا ما فصلت القول فيه في مقال سابق. وفضلًا عن ذلك، فإن برامج الذكاء الاصطناعي لا تخلو من التحيز (بما في ذلك التحيز السياسي)؛ ببساطة لأنها مبرمَجة من خلال البشر الذين لا يخلون من التحيز في معتقداتهم، وهذا ما يُعرف باسم «الخوارزميات المتحيزة» biased algorithms.

ما يُستفاد من هذا كله هو أن الذكاء الاصطناعي ينبغي الاستعانة به في إطار الوعي بمخاطره؛ ومن ثم بما ينبغي اجتنابه، ولعل هذا ما يمكن تسميته «بأخلاقيات الذكاء الاصطناعي»، وهي أخلاقيات ينبغي أن تَحكم برامج هذا الذكاء مثلما تَحكم المستخدم نفسه.

مقالات مشابهة

  • مخاطر الذكاء الاصطناعي على التعليم والبحث العلمي
  • أنور قرقاش يلتقي المبعوث الخاص للحكومة الصينية لشؤون الشرق الأوسط
  • كِتابة جِنيّ المصباح تجارب روائية ولَّدها الذكاء الاصطناعي
  • كتَّاب عرب: لن نترك الذكاء الاصطناعي يأخذ مكاننا!
  • الذكاء الاصطناعي والرقمنة في العمل
  • هذه أبرز وظائف المستقبل التي تنبأ بها الذكاء الاصطناعي
  • مراكز البيانات الأميركية في مرمى التجسس الصيني.. ثغرات تهدد الذكاء الاصطناعي
  • كيف خسرت آبل عرش الذكاء الاصطناعي لصالح ميتا؟
  • الطائرة المسيرة الصينية الفرط صوتية إم دي-19 تثير مخاوف واشنطن
  • عسكرة الذكاء الاصطناعي .. كيف تتحول التكنولوجيا إلى أداة قتل عمياء؟