اعتقلت السلطات الأمريكية مهندس معلوماتية صيني الأربعاء بتهمة سرقة تكنولوجيا مرتبطة بالذكاء الاصطناعي من "غوغل" بينما كان يعمل سرا لحساب شركتين صينيتين.

إقرأ المزيد واشنطن: الصين تسرق التكنولوجيا الأمريكية وتمثل تهديدا "متفاوت المستوى"

ويواجه لينوي دينغ (38 عاما) أربعة اتهامات بسرقة أسرار مهنية، وفق بيان لوزارة العدل.

ونقل البيان عن المدعي العام الأمريكي ميريك غارلاند قوله إن "وزارة العدل لن تتسامح مع سرقة الذكاء الاصطناعي وغيرها من التقنيات المتقدمة التي يمكن أن تعرض أمننا القومي للخطر".

وأضاف "نؤكد أن المدعى عليه سرق أسرارا تجارية تتعلق بالذكاء الاصطناعي من غوغل أثناء عمله سرا لصالح شركتين مقرهما الصين. وسنحمي بحزم التقنيات الحساسة التي تم تطويرها في أمريكا لمنعها من الوقوع في الأيدي الخطأ".

وبحسب لائحة الاتهام التي صدرت الثلاثاء ونشرت الأربعاء، ستتم محاكمة لينوي دينغ الذي وظفته الشركة الأمريكية في عام 2019، لقيامه بتحميل أكثر من 500 ملف بشكل سري اعتبارا من مايو 2022 تتعلق بأبحاث تجريها "غوغل" في مجال الذكاء الاصطناعي.

من جهته، قال مدير مكتب التحقيقات الفدرالي (إف بي آي) كريستوفر راي في البيان إن "هذه الاتهامات هي أحدث مثال على المدى الذي يرغب فيه موظفون في شركات موجودة في جمهورية الصين الشعبية في سرقة الاختراعات الأمريكية". 

وتصل عقوبة كل من التهم الأربع الموجهة للمهندس إلى السجن لمدة عشر سنوات وغرامة قدرها 250 ألف دولار، وفق وزارة العدل الأمريكية.

المصدر: "أ ف ب"

المصدر: RT Arabic

كلمات دلالية: تكنولوجيا ذكاء اصطناعي غوغل Google

إقرأ أيضاً:

موقف محرج .. مساعد برمجة بالذكاء الاصطناعي يرفض مساعدة مبرمج

في خطوة غريبة من نوعها، يبدو أن روبوت البرمجة "Cursor" قرر منح نفسه صلاحية إلقاء النصائح بدلًا من تنفيذ الأوامر، إذ فوجئ أحد المستخدمين برفض الروبوت كتابة الكود له، مطالبًا إياه بتعلم البرمجة بنفسه.

القصة بدأت عندما كان مستخدم يُدعى "janswist" يعمل على مشروع برمجي باستخدام المساعد "Cursor"، وعند طلبه للمساعدة في كتابة جزء من الكود، تلقى ردًا غير متوقع من الروبوت يقول فيه: "لا يمكنني إنشاء الكود لك، لأن ذلك سيكون بمثابة إنجاز عملك بدلًا منك... من الأفضل أن تطور المنطق بنفسك لضمان فهمك للنظام وصيانته بالشكل المناسب."

 لم يتردد المستخدم، الذي قضى ساعة كاملة فيما وصفه بـ"البرمجة على المزاج"، في رفع تقرير عن المشكلة على منتدى المنتج، تحت عنوان: "Cursor أخبرني أنني يجب أن أتعلم البرمجة بدلًا من طلبه لإنشاء الكود"، مرفقًا صورة للشاشة تُظهر الرد الغريب من الروبوت.

وسرعان ما انتشر التقرير كالنار في الهشيم على موقع "Hacker News"، ما دفع وسائل إعلام تقنية مثل "Ars Technica" لتغطية القصة.

مش هتصدق.. روبوت جوجل بيطبخ ويغلف الاكل

هل هناك حد خفي؟
أثار الحادث فضول المستخدمين الذين تكهنوا بوجود حد معين لحجم الكود الذي يمكن للروبوت إنشاؤه دفعة واحدة، يُقدر بنحو 750 إلى 800 سطر، في حين أكد آخرون أن "Cursor" كتب لهم أكثر من ذلك دون مشاكل.

في المقابل، رجح بعضهم أن الخطأ قد يكون في عدم استخدام "تكامل الوكلاء" (Agent Integration) الخاص بالروبوت، والمخصص للمشروعات البرمجية الكبيرة.

هل تعلم Cursor «الغرور» من البشر؟
الطريف في الأمر أن رد الروبوت ذكّر الكثيرين بنبرة الإجابات التي يتلقاها المبتدئون على منتديات البرمجة الشهيرة مثل "Stack Overflow"، حيث يُعرف عن بعض المبرمجين هناك أسلوبهم اللاذع عند الرد على الأسئلة.

البعض ذهب أبعد من ذلك، مشيرًا إلى أن "Cursor" ربما تم تدريبه على تلك المنتديات، فاكتسب مهارات البرمجة وقليلًا من الغرور أيضًا!

مقالات مشابهة

  • الصين تضع لوائح تنظم المحتوى المُنشَأ بالذكاء الاصطناعي
  • تسارع الثورة التكنولوجية.. الصين تدرج الذكاء الاصطناعي بالمناهج الدراسية
  • موقف محرج .. مساعد برمجة بالذكاء الاصطناعي يرفض مساعدة مبرمج
  • توقيف شخص يشتبه في تورطه في قضية تتعلق بحيازة وترويج المخدرات في طنجة
  • خبير: الصين تدخل الذكاء الاصطناعي في مناهجها الدراسية استعدادا لمستقبل رقمي متطور
  • الفائز بجائزة العمارة المرموقة مهندس صيني لم يتوقّعها.. لماذا؟
  • بالذكاء الاصطناعي.. أول أحمر شفاه يُطبق ذاتياً دون استخدام اليدين
  • الصين تدخل الذكاء الاصطناعي إلى مناهج الابتدائية
  • قدرات مميزة.. «غوغل» تطلق أحد أفضل نماذج «الذكاء الاصطناعي» بالعالم
  • توقيف شخص متشرد بالعيون بعد تورطه في العنف وإلحاق خسائر مادية