«سدايا وكاوست» يختتمان المعسكر الصيفي للذكاء الاصطناعي لطلبة الثانوية
تاريخ النشر: 27th, July 2023 GMT
شاهد المقال التالي من صحافة السعودية عن سدايا وكاوست يختتمان المعسكر الصيفي للذكاء الاصطناعي لطلبة الثانوية، وهدف المعسكر إلى إثراء معرفة الطلبة وتطوير مهاراتهم في تقنيات الذكاء الاصطناعي حيث عملوا على مشاريع تدريبية مختاره في عالم الذكاء الاصطناعي .،بحسب ما نشر صحيفة عاجل، تستمر تغطيتنا حيث نتابع معكم تفاصيل ومعلومات «سدايا وكاوست» يختتمان المعسكر الصيفي للذكاء الاصطناعي لطلبة الثانوية، حيث يهتم الكثير بهذا الموضوع والان إلى التفاصيل فتابعونا.
وهدف المعسكر إلى إثراء معرفة الطلبة وتطوير مهاراتهم في تقنيات الذكاء الاصطناعي حيث عملوا على مشاريع تدريبية مختاره في عالم الذكاء الاصطناعي باستخدام المعرفة التي اكتسبوها من المدربين في المعسكر وإنجاز تلك المشاريع تحت إشراف متخصصين.
وجاء المعسكر الصيفي في إطار جهود (سدايا وكاوست) نحو تنمية القدرات البشرية وتزويد جيل اليوم بالمعارف والمهارات اللازمة من خلال برامج متخصصة في مجالات الذكاء الاصطناعي وفق أحدث الممارسات العالمية تحقيقًا لمستهدفات رؤية السعودية 2030.
معارف تقنية جديدة وتجارب علمية مختلفة مع طلبة المرحلة الثانوية في المعسكر الصيفي للذكاء الاصطناعي الذي اختتمته الليلة #سدايا بالتعاون مع جامعة #كاوست pic.twitter.com/dVCFTzECzi
— SDAIA (@SDAIA_SA) July 26, 2023185.208.78.254
اقرأ على الموقع الرسمي
وفي نهاية المقال نود ان نشير الى ان هذه هي تفاصيل «سدايا وكاوست» يختتمان المعسكر الصيفي للذكاء الاصطناعي لطلبة الثانوية وتم نقلها من صحيفة عاجل نرجوا بأن نكون قد وفقنا بإعطائك التفاصيل والمعلومات الكامله .
علما ان فريق التحرير في صحافة العرب بالتاكد منه وربما تم التعديل علية وربما قد يكون تم نقله بالكامل اوالاقتباس منه ويمكنك قراءة ومتابعة مستجدادت هذا الخبر او الموضوع من مصدره الاساسي.
المصدر: صحافة العرب
كلمات دلالية: الذكاء الذكاء ايجي بست موعد عاجل الدولار الامريكي اليوم اسعار الذهب اسعار النفط مباريات اليوم جدول ترتيب حالة الطقس الذکاء الاصطناعی
إقرأ أيضاً:
عالم يحذر.. الذكاء الاصطناعي سيؤدي لانقراض البشرية
خفض عالم الكمبيوتر البريطاني الكندي، الذي يوصف في كثير من الأحيان بأنه "الأب الروحي" للذكاء الاصطناعي، من توقعاته بشأن خطر محو الذكاء الاصطناعي للبشرية خلال العقود الثلاثة المقبلة.
وحذر البروفيسور جيفري هينتون، الفائز بجائزة نوبل في الفيزياء هذا العام لأبحاثه في مجال الذكاء الاصطناعي، من أن التقدم التكنولوجي يحدث بسرعة تفوق التوقعات، مشيرا إلى أن هناك فرصة تتراوح بين 10% و20% لانقراض الإنسانية بسبب الذكاء الاصطناعي.
قبل طرح Galaxy S25.. سامسونج تطلق ابتكارات مدعومة بالذكاء الاصطناعي5 ميزات بالذكاء الاصطناعي على أجهزة ويندوز.. لا تفوتهاتحذيرات من مستقبل مظلم للبشرية في الثلاثين عاما المقبلةكان هينتون قال سابقا إن هناك فرصة بنسبة 10% لأن تؤدي التكنولوجيا إلى نتيجة كارثية للبشرية.
وفي حديثه لبرنامج توداي على إذاعة بي بي سي 4، أكد هينتون أنه لا يغير تقديراته عن خطر الذكاء الاصطناعي لنهاية العالم المحتملة، حيث قال: "ليس حقا، النسبة ما تزال 10% إلى 20%".
وأوضح أنه لم يسبق للبشر أن تعاملوا مع أنظمة ذكاء تفوق ذكاءهم، مشبها الوضع بطفل في الثالثة من عمره.
وأضاف: “وكم مثالا تعرفه على شيء أكثر ذكاء يسيطر عليه شيء أقل ذكاء؟ هناك أمثلة قليلة جدا، هناك أم وطفل، لقد بذل التطور الكثير من الجهد للسماح للطفل بالتحكم في أمه"، ولكن هذا هو المثال الوحيد الذي أعرفه.
وقال هينتون، المولود في لندن، والأستاذ الفخري بجامعة تورنتو، إن البشر سيكونون مثل الأطفال الصغار أو طفلا يبلغ من العمر ثلاث سنوات، مقارنة بذكاء أنظمة الذكاء الاصطناعي القوية للغاية.
وأشار إلى أنه يمكن تعريف الذكاء الاصطناعي بشكل فضفاض على أنه أنظمة كمبيوتر تؤدي مهام تتطلب عادة ذكاء بشريا.
وأكد هينتون، على ضرورة وجود تنظيم حكومي لمراقبة تطوير هذه التكنولوجيا، محذرا من أن الاعتماد على الدوافع الربحية للشركات الكبرى لن يكون كافيًا لضمان تطويرها بشكل آمن.
وأشار زميله في المجال، يان ليكون، إلى أن الذكاء الاصطناعي قد ينقذ البشرية من الانقراض، مما يعكس وجهات نظر متنوعة حول تأثير هذه التكنولوجيا.
وفي العام الماضي، تصدر هينتون عناوين الأخبار بعد استقالته من وظيفته في جوجل من أجل التحدث بشكل أكثر صراحة عن المخاطر التي يفرضها تطوير الذكاء الاصطناعي غير المقيد، مشيرا إلى مخاوف من أن "الجهات الفاعلة السيئة" قد تستخدم التكنولوجيا لإيذاء الآخرين.
ومن بين أبرز المخاوف الرئيسية للناشطين في مجال سلامة الذكاء الاصطناعي هو أن إنشاء ذكاء اصطناعي عام، أو أنظمة أكثر ذكاء من البشر، يمكن أن يؤدي إلى أن تشكل التكنولوجيا تهديدا وجوديا من خلال التهرب من السيطرة البشرية.