ديب سيك تحت مجهر الرقابة الأوروبية!
تاريخ النشر: 29th, January 2025 GMT
أثارت شركة DeepSeek الناشئة في مجال الذكاء الاصطناعي اهتمامًا واسعًا خلال الأيام الأخيرة، حيث برزت كنموذج قوي لأنظمة الذكاء الاصطناعي اللغوية.
ومع ذلك، وجدت الشركة نفسها تحت أنظار الجهات الرقابية لحماية البيانات، وسط تساؤلات حول كيفية تعاملها مع البيانات الشخصية للمستخدمين.
شكوى رسمية ضد DeepSeek في أوروبا
في خطوة تعد الأولى من نوعها، تقدمت منظمة Euroconsumers، وهي تحالف لمجموعات المستهلكين في أوروبا، بشكوى إلى هيئة حماية البيانات الإيطالية، تطالب فيها بمراجعة مدى امتثال DeepSeek للوائح اللائحة العامة لحماية البيانات (GDPR) المعمول بها في أوروبا.
وبدورها، أكدت الهيئة الإيطالية أنها أرسلت طلبًا رسميًا إلى DeepSeek للحصول على توضيحات حول ممارساتها في معالجة البيانات الشخصية، مشيرة إلى أن "بيانات ملايين الأشخاص في إيطاليا في خطر"، ومنحت الشركة مهلة 20 يومًا للرد.
نقل البيانات.. قلق بشأن الامتثال للقوانين
أحد الجوانب التي أثارت النقاش هو موقع تطوير وتشغيل DeepSeek، حيث يتم تخزين البيانات ضمن بنيتها التحتية.
ووفقًا لسياسة الخصوصية الخاصة بها، فإن الشركة تنقل البيانات من الدول التي تقدم فيها خدماتها إلى مراكز بياناتها، وتؤكد أنها تفعل ذلك "وفقًا لمتطلبات قوانين حماية البيانات المعمول بها".
لكن منظمة Euroconsumers، التي سبق لها النجاح في قضايا تتعلق بحماية البيانات، تطالب مع الهيئة الإيطالية بمزيد من الشفافية حول هذه العمليات.
اقرأ أيضاً.. "ديب سيك".. ماذا حصل في آخر 48 ساعة؟
الرقابة على جمع البيانات
أخبار ذات صلة
في هذا السياق، وجهت الهيئة الإيطالية طلبها إلى DeepSeek للحصول على معلومات تتعلق بالبيانات الشخصية التي تجمعها، والمصادر التي تعتمد عليها، والغرض من استخدامها، بما في ذلك البيانات التي تُستخدم في تدريب أنظمتها الذكية. كما طلبت الهيئة تفاصيل عن آليات حماية البيانات وأماكن تخزينها، إلى جانب توضيح الأساس القانوني لمعالجة هذه البيانات.
كما شمل الطلب استفسارات حول طريقة جمع البيانات عبر تقنيات "Web Scraping"، ومدى إبلاغ المستخدمين، سواء كانوا مسجلين أم لا، بممارسات معالجة بياناتهم.
حماية القصر
بالإضافة إلى ذلك، أبدت منظمة Euroconsumers قلقها بشأن سياسات المنصة تجاه حماية القُصّر، لا سيما فيما يتعلق بآليات التحقق من العمر وإدارة بيانات المستخدمين دون سن 18 عامًا.
وبحسب سياسة الخصوصية الخاصة بـDeepSeek، فإن خدماتها غير مخصصة لمن هم دون هذا العمر، لكنها لا تحدد بوضوح كيفية تنفيذ هذا الشرط، بل توصي فقط بأن يراجع المستخدمون بين 14 و18 عامًا سياسة الخصوصية مع شخص بالغ.
حتى الآن، تُعد هذه الخطوة الأولى من نوعها تجاه DeepSeek، لكنها قد لا تكون الأخيرة.
ومع ذلك، قد تستغرق أي تحركات أخرى بعض الوقت.
اقرأ أيضاً.. من هو ليانغ وينفنج.. العقل المدبر لـ"ديب سيك"؟
المفوضية الأوروبية تراقب التحقيقات
وخلال مؤتمر صحفي عُقد اليوم في المفوضية الأوروبية، كان موضوع DeepSeek حاضرًا بقوة.
وعند سؤاله عن المخاوف المتعلقة بالأمن والخصوصية، قال المتحدث باسم السيادة التكنولوجية في المفوضية الأوروبية، توماس ريغنييه، إنه لا يزال من المبكر التعليق على أي تحقيقات محتملة، لكنه أكد أن جميع الخدمات المقدمة في أوروبا يجب أن تلتزم بالقوانين المعمول بها، مشيرًا إلى أن قانون الذكاء الاصطناعي في الاتحاد الأوروبي ينطبق على جميع أنظمة الذكاء الاصطناعي العاملة في المنطقة.
كما تم التطرق إلى مسألة توافق سياسات المحتوى الخاصة بـDeepSeek مع القوانين الأوروبية المتعلقة بحرية التعبير، ومدى تأثير ذلك على إمكانية فتح تحقيق رسمي. ومع ذلك، أوضح ريغنييه أن الأمر لا يزال في مراحله الأولية، مضيفًا: "إطارنا التنظيمي قوي بما يكفي لمعالجة أي مشكلات محتملة إذا ظهرت".
إسلام العبادي(أبوظبي)
المصدر: صحيفة الاتحاد
كلمات دلالية: تشات جي بي تي ديب سيك الاتحاد الأوروبي الذكاء الاصطناعي الذکاء الاصطناعی حمایة البیانات فی أوروبا
إقرأ أيضاً:
تحذيرات من تصاعد خطر الذكاء الاصطناعي في هجمات التصيد الاحتيالي
تابع أحدث الأخبار عبر تطبيق
حذّرت شركة كاسبرسكي من استخدام الذكاء الاصطناعي في تطوير وتخصيص هجمات التصيد الاحتيالي، مشيرة إلى تزايد تعقيد هذه الهجمات وصعوبة كشفها حتى من قبل موظفين ذوي خبرة عالية في الأمن السيبراني.
وكشفت دراسة أجرتها كاسبرسكي في منطقة الشرق الأوسط وتركيا وأفريقيا عن زيادة بنسبة 48% في الهجمات السيبرانية على المؤسسات خلال العام الماضي، حيث شكلت هجمات التصيد الاحتيالي التهديد الأوسع، إذ واجهها 51% من المشاركين في الدراسة.
ويتوقع 53% من المشاركين تزايدًا في تلك الهجمات مع استمرار المجرمين السيبرانيين في استغلال تقنيات الذكاء الاصطناعي.
الذكاء الاصطناعي يعزز تخصيص الهجماتبينما كانت هجمات التصيد سابقًا عامة وتُرسل بشكل عشوائي، بات بالإمكان الآن استخدام أدوات الذكاء الاصطناعي لاستهداف الأفراد برسائل دقيقة مخصصة تتوافق مع وظائفهم واهتماماتهم، اعتمادًا على معلومات منشورة عبر الإنترنت. ويُظهر ذلك كيف يمكن بسهولة انتحال صفة مسؤول تنفيذي لإقناع الموظفين باتخاذ إجراءات ضارة.
خطر التزييف العميق يتصاعدوأشارت كاسبرسكي إلى أن تقنيات التزييف العميق أصبحت أداة فعالة في يد المهاجمين لإنتاج محتوى صوتي ومرئي مقنع لانتحال شخصيات، ما يؤدي إلى حالات مثل تحويل ملايين الدولارات بناءً على مقاطع فيديو وهمية.
تستخدم هجمات التصيد المدعومة بالذكاء الاصطناعي خوارزميات لتجاوز أنظمة الحماية التقليدية وتحاكي أسلوب البريد الإلكتروني الشرعي، مما يتيح لها تفادي اكتشاف برامج الحماية.
الخبرة وحدها لا تكفيورغم الخبرة، يظل الموظفون عرضة لهذه الهجمات المتطورة نتيجة لقدرتها على استغلال العوامل النفسية، مثل الاستعجال والخوف والثقة في السلطة، مما يقلل من فرص التحقق المسبق.
استراتيجية دفاعية متعددة المستوياتأوصت كاسبرسكي باعتماد استراتيجية شاملة للتصدي لهذه الهجمات، تتضمن تدريب الموظفين على التهديدات الحديثة عبر منصات مثل Kaspersky Automated Security Awareness Platform،
واستخدام أدوات الحماية المتقدمة مثل Kaspersky Next وKaspersky Security for Mail Server، بالإضافة إلى تطبيق نموذج أمان انعدام الثقة الذي يضمن الحد من الوصول للأنظمة الحساسة.