بايدن يحظر بعض الاستثمارات الأمريكية في مجال الذكاء الاصطناعي في الصين
تاريخ النشر: 10th, August 2023 GMT
نص: فرانس24 تابِع إعلان اقرأ المزيد
وقّع الرئيس الأمريكي جو بايدن الأربعاء أمرا تنفيذيا سيحظر بعض الاستثمارات الأمريكية الجديدة في الصين في التقنيات الحساسة مثل رقائق الكمبيوتر، كما سيفرض متطلبات بإخطار الحكومة في حال الاستثمار في قطاعات تكنولوجية أخرى.
ويهدف الأمر إلى منع رأس المال والخبرة الأمريكية من مساعدة الصين على تطوير تقنيات يمكن أن تدعم تحديثها العسكري وتقوض الأمن القومي للولايات المتحدة.
وعبرت الصين الخميس عن قلقها البالغ بشأن الأمر وقالت إنها تحتفظ لنفسها بالحق في اتخاذ ما تراه من إجراءات.
وقالت وزارة التجارة الصينية في بيان إن الأمر يؤثر على التشغيل وعمليات صنع القرار في الشركات ويقوض النظام الاقتصادي والتجاري الدولي.
والقرار المنبثق عن مرسوم أصدره الرئيس جو بايدن، يفترض أن يتيح "الدفاع عن الأمن القومي الأمريكي من خلال حماية التقنيات الحساسة للجيل الجديد من الابتكارات العسكرية"، وفق الوزارة التي شددت من جهة أخرى على الطابع "المحدود للغاية" للمرسوم حرصا على "تمسكنا بالاستثمارات الخارجية" للشركات الأمريكية.
عمليا تفرض القواعد الجديدة على الشركات الأمريكية والأفراد الأمريكيين إبلاغ الإدارة بتعاملات معينة، فيما تحظر بشكل صريح تعاملات أخرى متى شملت "كيانات على صلة بالتقنيات المتقدمة المشار إليها في المرسوم".
وأوضح مسؤول في الإدارة الأمريكية أن "الصين تسعى إلى حيازة وإنتاج تقنيات أساسية يمكن أن تساعد في تحديث جيشها"، وأضاف أن هذا المرسوم "يرمي تحديدا إلى الحد من الاستثمارات الأمريكية في الشركات الضالعة في هذا الجهد".
وتخشى إدارة بايدن استفادة الصين من الاستثمارات الأمريكية ليس فقط على مستوى نقل التقنيات وإنما أيضا عبر "فوائد غير ملموسة" على غرار المرافقة في إنشاء خطوط الإنتاج وتبادل المعارف والوصول إلى الأسواق.
وقال المصدر "في آخر قمة لمجموعة السبع، شدد القادة على مصلحتنا المشتركة في توفير الحماية المناسبة للتقنيات الحساسة ذات التداعيات على الأمن القومي، وفي ضبط الاستثمارات على هذا الصعيد".
فرانس24/ أ ف ب/ رويترز
المصدر: فرانس24
كلمات دلالية: النيجر الحرب في أوكرانيا مونديال السيدات ريبورتاج الصين الذكاء الاصطناعي الولايات المتحدة جو بايدن الاستثمارات الأمریکیة
إقرأ أيضاً:
عالم يحذر.. الذكاء الاصطناعي سيؤدي لانقراض البشرية
خفض عالم الكمبيوتر البريطاني الكندي، الذي يوصف في كثير من الأحيان بأنه "الأب الروحي" للذكاء الاصطناعي، من توقعاته بشأن خطر محو الذكاء الاصطناعي للبشرية خلال العقود الثلاثة المقبلة.
وحذر البروفيسور جيفري هينتون، الفائز بجائزة نوبل في الفيزياء هذا العام لأبحاثه في مجال الذكاء الاصطناعي، من أن التقدم التكنولوجي يحدث بسرعة تفوق التوقعات، مشيرا إلى أن هناك فرصة تتراوح بين 10% و20% لانقراض الإنسانية بسبب الذكاء الاصطناعي.
قبل طرح Galaxy S25.. سامسونج تطلق ابتكارات مدعومة بالذكاء الاصطناعي5 ميزات بالذكاء الاصطناعي على أجهزة ويندوز.. لا تفوتهاتحذيرات من مستقبل مظلم للبشرية في الثلاثين عاما المقبلةكان هينتون قال سابقا إن هناك فرصة بنسبة 10% لأن تؤدي التكنولوجيا إلى نتيجة كارثية للبشرية.
وفي حديثه لبرنامج توداي على إذاعة بي بي سي 4، أكد هينتون أنه لا يغير تقديراته عن خطر الذكاء الاصطناعي لنهاية العالم المحتملة، حيث قال: "ليس حقا، النسبة ما تزال 10% إلى 20%".
وأوضح أنه لم يسبق للبشر أن تعاملوا مع أنظمة ذكاء تفوق ذكاءهم، مشبها الوضع بطفل في الثالثة من عمره.
وأضاف: “وكم مثالا تعرفه على شيء أكثر ذكاء يسيطر عليه شيء أقل ذكاء؟ هناك أمثلة قليلة جدا، هناك أم وطفل، لقد بذل التطور الكثير من الجهد للسماح للطفل بالتحكم في أمه"، ولكن هذا هو المثال الوحيد الذي أعرفه.
وقال هينتون، المولود في لندن، والأستاذ الفخري بجامعة تورنتو، إن البشر سيكونون مثل الأطفال الصغار أو طفلا يبلغ من العمر ثلاث سنوات، مقارنة بذكاء أنظمة الذكاء الاصطناعي القوية للغاية.
وأشار إلى أنه يمكن تعريف الذكاء الاصطناعي بشكل فضفاض على أنه أنظمة كمبيوتر تؤدي مهام تتطلب عادة ذكاء بشريا.
وأكد هينتون، على ضرورة وجود تنظيم حكومي لمراقبة تطوير هذه التكنولوجيا، محذرا من أن الاعتماد على الدوافع الربحية للشركات الكبرى لن يكون كافيًا لضمان تطويرها بشكل آمن.
وأشار زميله في المجال، يان ليكون، إلى أن الذكاء الاصطناعي قد ينقذ البشرية من الانقراض، مما يعكس وجهات نظر متنوعة حول تأثير هذه التكنولوجيا.
وفي العام الماضي، تصدر هينتون عناوين الأخبار بعد استقالته من وظيفته في جوجل من أجل التحدث بشكل أكثر صراحة عن المخاطر التي يفرضها تطوير الذكاء الاصطناعي غير المقيد، مشيرا إلى مخاوف من أن "الجهات الفاعلة السيئة" قد تستخدم التكنولوجيا لإيذاء الآخرين.
ومن بين أبرز المخاوف الرئيسية للناشطين في مجال سلامة الذكاء الاصطناعي هو أن إنشاء ذكاء اصطناعي عام، أو أنظمة أكثر ذكاء من البشر، يمكن أن يؤدي إلى أن تشكل التكنولوجيا تهديدا وجوديا من خلال التهرب من السيطرة البشرية.