توقيف مهندس صيني لدى "غوغل" بتهمة سرقة تكنولوجيا مرتبطة بالذكاء الاصطناعي
تاريخ النشر: 7th, March 2024 GMT
اعتقلت السلطات الأمريكية مهندس معلوماتية صيني الأربعاء بتهمة سرقة تكنولوجيا مرتبطة بالذكاء الاصطناعي من "غوغل" بينما كان يعمل سرا لحساب شركتين صينيتين.
إقرأ المزيدويواجه لينوي دينغ (38 عاما) أربعة اتهامات بسرقة أسرار مهنية، وفق بيان لوزارة العدل.
ونقل البيان عن المدعي العام الأمريكي ميريك غارلاند قوله إن "وزارة العدل لن تتسامح مع سرقة الذكاء الاصطناعي وغيرها من التقنيات المتقدمة التي يمكن أن تعرض أمننا القومي للخطر".
وأضاف "نؤكد أن المدعى عليه سرق أسرارا تجارية تتعلق بالذكاء الاصطناعي من غوغل أثناء عمله سرا لصالح شركتين مقرهما الصين. وسنحمي بحزم التقنيات الحساسة التي تم تطويرها في أمريكا لمنعها من الوقوع في الأيدي الخطأ".
وبحسب لائحة الاتهام التي صدرت الثلاثاء ونشرت الأربعاء، ستتم محاكمة لينوي دينغ الذي وظفته الشركة الأمريكية في عام 2019، لقيامه بتحميل أكثر من 500 ملف بشكل سري اعتبارا من مايو 2022 تتعلق بأبحاث تجريها "غوغل" في مجال الذكاء الاصطناعي.
من جهته، قال مدير مكتب التحقيقات الفدرالي (إف بي آي) كريستوفر راي في البيان إن "هذه الاتهامات هي أحدث مثال على المدى الذي يرغب فيه موظفون في شركات موجودة في جمهورية الصين الشعبية في سرقة الاختراعات الأمريكية".
وتصل عقوبة كل من التهم الأربع الموجهة للمهندس إلى السجن لمدة عشر سنوات وغرامة قدرها 250 ألف دولار، وفق وزارة العدل الأمريكية.
المصدر: "أ ف ب"
المصدر: RT Arabic
كلمات دلالية: تكنولوجيا ذكاء اصطناعي غوغل Google
إقرأ أيضاً:
موقف محرج .. مساعد برمجة بالذكاء الاصطناعي يرفض مساعدة مبرمج
في خطوة غريبة من نوعها، يبدو أن روبوت البرمجة "Cursor" قرر منح نفسه صلاحية إلقاء النصائح بدلًا من تنفيذ الأوامر، إذ فوجئ أحد المستخدمين برفض الروبوت كتابة الكود له، مطالبًا إياه بتعلم البرمجة بنفسه.
القصة بدأت عندما كان مستخدم يُدعى "janswist" يعمل على مشروع برمجي باستخدام المساعد "Cursor"، وعند طلبه للمساعدة في كتابة جزء من الكود، تلقى ردًا غير متوقع من الروبوت يقول فيه: "لا يمكنني إنشاء الكود لك، لأن ذلك سيكون بمثابة إنجاز عملك بدلًا منك... من الأفضل أن تطور المنطق بنفسك لضمان فهمك للنظام وصيانته بالشكل المناسب."
لم يتردد المستخدم، الذي قضى ساعة كاملة فيما وصفه بـ"البرمجة على المزاج"، في رفع تقرير عن المشكلة على منتدى المنتج، تحت عنوان: "Cursor أخبرني أنني يجب أن أتعلم البرمجة بدلًا من طلبه لإنشاء الكود"، مرفقًا صورة للشاشة تُظهر الرد الغريب من الروبوت.
وسرعان ما انتشر التقرير كالنار في الهشيم على موقع "Hacker News"، ما دفع وسائل إعلام تقنية مثل "Ars Technica" لتغطية القصة.
هل هناك حد خفي؟
أثار الحادث فضول المستخدمين الذين تكهنوا بوجود حد معين لحجم الكود الذي يمكن للروبوت إنشاؤه دفعة واحدة، يُقدر بنحو 750 إلى 800 سطر، في حين أكد آخرون أن "Cursor" كتب لهم أكثر من ذلك دون مشاكل.
في المقابل، رجح بعضهم أن الخطأ قد يكون في عدم استخدام "تكامل الوكلاء" (Agent Integration) الخاص بالروبوت، والمخصص للمشروعات البرمجية الكبيرة.
هل تعلم Cursor «الغرور» من البشر؟
الطريف في الأمر أن رد الروبوت ذكّر الكثيرين بنبرة الإجابات التي يتلقاها المبتدئون على منتديات البرمجة الشهيرة مثل "Stack Overflow"، حيث يُعرف عن بعض المبرمجين هناك أسلوبهم اللاذع عند الرد على الأسئلة.
البعض ذهب أبعد من ذلك، مشيرًا إلى أن "Cursor" ربما تم تدريبه على تلك المنتديات، فاكتسب مهارات البرمجة وقليلًا من الغرور أيضًا!