أصبح تطبيق «DeepSeek»، التطبيق المجاني الأكثر تنزيلًا في الولايات المتحدة بعد أسبوع واحد فقط من إطلاقه، حيث أثار صعوده المفاجئ موجة من الصدمة في وول ستريت، لتنخفض الأسهم الأمريكية بشكل حاد يوم الاثنين 26 يناير 2025.

تميز تطبيق «ديب سيك» بأدائه المماثل لمنافسه ChatGPT، لكن بتكلفة زهيدة، ما جعل التطبيق الناشئ يهدد هالة القوة التي تحيط بصناعة التكنولوجيا الأمريكية.

بدأت شركة «DeepSeek» تجذب اهتمامًا متزايدًا في مجال الذكاء الاصطناعي منذ ديسمبر 2024، عندما أطلقت نموذجًا جديدًا أكدت أنه يضاهي إصدارات مماثلة من شركات أمريكية مثل OpenAI، المطورة لـ ChatGPT، مع ميزة تفوقه من حيث الكفاءة والتكلفة، بفضل استغلاله الفعّال للشرائح الباهظة من Nvidia في تدريب أنظمته على كميات هائلة من البيانات.، حيث ازدادت شهرة مساعدها الذكي بعد توفره على متجري Apple وGoogle في مطلع عام 2025.

وبحلول 26 يناير 2025، تصدّر مساعد الذكاء الاصطناعي من تطبيق «DeepSeek» قائمة التطبيقات المجانية الأكثر تحميلًا، مما أثار نقاشات حول المنافسة بين الولايات المتحدة والصين في سباق تطوير الذكاء الاصطناعي. ومع ذلك، أعرب بعض خبراء التكنولوجيا الأمريكيين عن قلقهم إزاء تمكن شركة صينية ناشئة من مجاراة الشركات الرائدة في مجال الذكاء الاصطناعي التوليدي، وبتكلفة أقل بكثير.

أحدثت شركة DeepSeek مفاجأة في مجتمع التكنولوجيا بإطلاقها نماذج ذكاء اصطناعي قادرة على منافسة منتجات متقدمة من شركات أمريكية مثل OpenAI وAnthropic، وكان نموذجها «الاستدلال» R1، الذي طُرح في مطلع 2025، قد لفت انتباه الباحثين و المستثمرين، واستدعى ردود فعل واسعة من كبار خبراء الذكاء الاصطناعي.

وفي غضون أسبوع واحد فقط، تمكن تطبيق DeepSeek R1 من إزاحة ChatGPT عن صدارة متجر App Store، مما أحدث اضطرابًا في سوق الأسهم، ووجه تهديدًا مباشرًا لشركة OpenAI وللهيمنة الأمريكية على قطاع الذكاء الاصطناعي.

الأهم من ذلك، أن الشركة الصينية اتخذت خطوة جريئة بإطلاق ابتكارها كـ«مصدر مفتوح»، مما يعني أن أي شخص في جميع أنحاء العالم يمكنه نسخ الكود واستخدامه مجانًا، وقد يؤدي هذا إلى تقويض نموذج ChatGPT، الذي أصبح مدفوع الأجر مقابل تطبيقاته الأكثر تقدمًا

يعتمد تطبيق تطبيق «DeepSeek» على بيانات أقل وبتكلفة منخفضة مقارنة بنماذج الشركات الكبرى، مما قد يشكل نقطة تحول في حجم الاستثمارات المطلوبة لتطوير الذكاء الاصطناعي مستقبلاً.

أعد الاتحاد المصري للتأمين في نشرته الأسبوعية مقارنة بين DeepSeek وChatGPT، على الرغم من أن كلًا من DeepSeek وChatGPT يعتمدان على تقنيات الذكاء الاصطناعي، إلا أن هناك بعض الاختلافات الرئيسية بينهما:

- التركيز على العمق مقابل التنوع:

يركز تطبيق «DeepSeek» بشكل أكبر على تقديم تحليلات عميقة ودقيقة، مما يجعله الخيار الأمثل للمهام التي تتطلب دقة عالية مثل الأبحاث الأكاديمية أو التحليل المالي. في المقابل، «ChatGPT» يتميز بقدرته على توليد نصوص متنوعة وإبداعية، مما يجعله أكثر ملاءمةً للمهام الإبداعية مثل كتابة المحتوى أو إنشاء حوارات تفاعلية.

- قدرة الفهم السياقي:

يظهر تطبيق «DeepSeek» تفوقًا في فهم السياقات المعقدة، خاصةً في النصوص الطويلة أو المتخصصة، بينما ChatGPT يعتمد على نماذج لغوية عامة، مما قد يجعله أقل دقة في بعض الحالات المتخصصة.

- التكامل مع التطبيقات الأخرى:

يقدم تطبيق «DeepSeek» ميزات متقدمة في التكامل مع الأنظمة الأخرى، مما يجعله خيارًا مثاليًا للشركات والمؤسسات التي تحتاج إلى حلول ذكية قابلة للتخصيص. أما ChatGPT فيتمتع بشعبية كبيرة بين الأفراد والمطورين بسبب واجهة برمجية سهلة الاستخدام.

- التحديثات والتطوير:

ChatGPT يتمتع بدعم قوي من OpenAI، مما يضمن تحديثات مستمرة وتحسينات في الأداء. تطبيق «DeepSeek»، على الرغم من حداثته، إلا أنه يسير بخطى سريعة في التطوير، مما يجعله منافسًا قويًا في المستقبل.

- إمكانية الدردشة الصوتية: يتفوق ChatGPT في تقديم وظيفة الدردشة الصوتية، و هي خاصية غير متوفرة حتى الآن في DeepSeek، و هذا من شأنه أن يجعل التفاعلات مع ChatGpt أكثر ديناميكية وسهولة في الوصول، وخاصة بالنسبة للمستخدمين الذين يفضلون التحدث على الكتابة.

غير هذا الحدث وجهات النظر السائدة على نطاق واسع حول تفوق الولايات المتحدة في مجال الذكاء الاصطناعي وفعالية ضوابط التصدير التي تفرضها واشنطن والتي تستهدف الحد من قدرات الصين المتقدمة في مجال الرقائق والذكاء الاصطناعي.

ماذا فعلت DeepSeek؟

في ديسمبر2024، أصدرت «DeepSeek» نموذجها DeepSeek V3 وهو نموذج لغوي "قياسي" قوي للغاية يعمل بمستوى مماثل لنموذج GPT-4o من OpenAI.

في حين أن هذه النماذج معرضة للأخطاء وأحيانًا تختلق حقائق خاصة بها، إلا أنها قادرة على تنفيذ مهام مثل الإجابة على الأسئلة وكتابة المقالات وإنشاء أكواد الكمبيوتر. وفي بعض اختبارات حل المشكلات والمنطق الرياضي، تحصل على درجات أفضل من متوسط درجات الإنسان العادي.

وتابع اتحاد التأمين، تم تدريب إصدار V3 بتكلفة تقدر بنحو 5.58 مليون دولار أمريكي. وهي تكلفة أرخص بكثير من GPT-4، والذي تكلف تطويره أكثر من 100 مليون دولار أمريكي.

هذا وأعلنت شركة «DeepSeek» أيضًا أنها قامت بتدريب V3 باستخدام حوالي 2000 شريحة كمبيوتر متخصصة، وحدات معالجة الرسوميات H800 التي تصنعها شركة NVIDIA وهذا أقل بكثير من الشركات الأخرى، والتي ربما استخدمت ما يصل إلى 16000 من شرائح H100 الأكثر قوة.

في 20 يناير، أصدرت شركة DeepSeek نموذجًا آخر، يُدعى R1. وهو ما يسمى بنموذج "الاستدلال"، والذي يحاول العمل على حل المشكلات المعقدة خطوة بخطوة. وهذا النموذج أفضل في العديد من المهام مثل فهم القراءة والتخطيط الاستراتيجي.

نموذج R1 هو نسخة معدلة من V3، تم تعديلها بتقنية تسمى التعلم التعزيزي. يبدو أن R1 يعمل على مستوى مماثل لنموذج o1 من OpenAI، والذي تم إصداره العام الماضي.

أثار هذا الإصدار موجة هائلة من الاهتمام بشركة «DeepSeek» مما أدى إلى زيادة شعبية تطبيق الدردشة الآلية الذي يعمل بنظام V3، وأدى إلى انهيار هائل في أسعار أسهم التكنولوجيا مع إعادة تقييم المستثمرين لصناعة الذكاء الاصطناعي. و قد خسرت شركة صناعة الرقائق NVIDIA حتى 28 يناير حوالي 600 مليار دولار أمريكي من قيمتها.

ماذا يعني ذلك؟

تم إصدار نماذج وتقنيات DeepSeek بموجب ترخيص MIT المجاني، مما يعني أنه يمكن لأي شخص تنزيلها وتعديلها.

ورغم أن هذا قد يكون بمثابة أخبار سيئة لبعض شركات الذكاء الاصطناعي ــ التي قد تتآكل أرباحها بسبب وجود نماذج قوية ومتاحة بحرّية ــ فإنه يشكل أخبارا عظيمة لمجتمع أبحاث الذكاء الاصطناعي الأوسع.

وبالنسبة للمستهلكين، قد يصبح الوصول إلى الذكاء الاصطناعي أرخص أيضاً. فقد يتم تشغيل المزيد من نماذج الذكاء الاصطناعي على أجهزة المستخدمين الخاصة، مثل أجهزة الكمبيوتر المحمولة أو الهواتف، بدلاً من تشغيلها "في السحابة" مقابل رسوم اشتراك.

أثر صعود «DeepSeek» على انخفاض أسهم شركات التكنولوجيا العالمية

أشار الاتحاد المصري للتأمين إلى أن إطلاق شركة " (DeepSeek) الصينية لنموذج ذكاء اصطناعي جديد أدي إلى انخفاض ملحوظ في أسهم شركات التكنولوجيا العالمية. يتميز نموذج "ديب سيك" بقدرته على تقديم أداء مماثل لنماذج الذكاء الاصطناعي الأمريكية الرائدة، مثل "ChatGPT" من "أوبن إيه آي"، ولكن بتكلفة أقل وباستخدام موارد حوسبة أقل.

نتيجة لذلك، شهدت أسهم شركات التكنولوجيا الكبرى تراجعًا حادًا، منها:

- انخفضت أسهم شركة «إنفيديا» بنسبة تقارب 17%، مما أدى إلى خسارة حوالي 600 مليار دولار من قيمتها السوقية.

- تراجعت أسهم شركات مثل «مايكروسوفت»، «أمازون»، و«ألفابت» (الشركة الأم لجوجل) بنسب ملحوظة.

- في المقابل، ارتفعت أسهم شركة "أبل" بنسبة 3.3%، نظرًا لاعتمادها الأقل على تطبيقات الذكاء الاصطناعي.

- وفي أوروبا، أنهت شركة ASML الهولندية لتصنيع معدات الرقائق تعاملات يوم الاثنين 26 يناير على انخفاض سعر سهمها بأكثر من 7%.

- انخفضت أسهم شركة Siemens Energy، التي تصنع الأجهزة المرتبطة بالذكاء الاصطناعي، بمقدار 20%.

- وكانت شركة سوفت بنك اليابانية، التي تعد جزءًا من حملة الرئيس دونالد ترامب للاستثمار في الذكاء الاصطناعي، من بين الشركات الأخرى التي تأثرت بالأزمة. وانخفضت أسهم الشركة بنحو 8% يوم الاثنين.

النماذج المفتوحة مقابل النماذج المغلقة: قرار استراتيجي لصناعة التأمين

صرّح يان ليكون، كبير علماء الذكاء الاصطناعي في شركة ميتا، قائلاً: بالنسبة لمن يعتقدون أن الصين تفوقت على الولايات المتحدة في مجال الذكاء الاصطناعي، فإن الحقيقة هي أن النماذج مفتوحة المصدر تفوقت على النماذج المغلقة.

لكن ماذا يعني ذلك بالنسبة لسوق التأمين على الحياة، خصوصًا مع التحولات التي أحدثتها شركة DeepSeek؟

ميزة النماذج مفتوحة المصدر في قطاع التأمين

توفر النماذج مفتوحة المصدر - مثل DeepSeek - إمكانية تخصيص الشركات للنماذج المفتوحة وتكييفها وفقًا لاحتياجاتها التشغيلية. ويعزز هذا النهج الامتثال التنظيمي، لا سيما في الصناعات الخاضعة لإشراف دقيق مثل التأمين.

تطبيقات الذكاء الاصطناعي في التأمين على الحياة

تعتمد عمليات الاكتتاب في التأمين على تحليل كميات ضخمة من البيانات الطبية، بما في ذلك السجلات الصحية، وتقارير التشخيص، ومذكرات الأطباء. وعلى الرغم من أن النماذج العامة للذكاء الاصطناعي قد تؤدي هذه المهام بكفاءة، إلا أن ضبط النماذج مفتوحة المصدر لتتناسب مع مجال التأمين يعد خيارًا أكثر فعالية من حيث التكلفة مقارنة باستخدام نماذج مغلقة باهظة الثمن تعتمد على واجهات برمجة التطبيقات (APIs)

أبرز حالات الاستخدام

تحليل المستندات الطبية: يتيح ضبط نموذج مفتوح على بيانات الاكتتاب التاريخية استخراج الحالات الطبية وعوامل الخطر بدقة أكبر من السجلات غير المنظمة.

اكتشاف الاحتيال: يمكن لتدريب نموذج ذكاء اصطناعي على بيانات المطالبات المجهولة المصدر أن يساعد في تحديد الأنماط الاحتيالية وتقليل التكاليف المرتبطة بالمطالبات الكاذبة.

ميكنة خدمة العملاء: يمكن نشر روبوتات محادثة ذكية لمساعدة العملاء في الاستفسارات المتعلقة بالوثائق والمطالبات، مما يحسن تجربة العملاء ويقلل من أوقات الاستجابة. ويتطلب ذلك ضبطًا دقيقًا للنموذج لضمان دقة المعلومات وتوافقها مع اللغة التأمينية.

التحكم في البيانات وحماية الخصوصية

تُعد حماية بيانات العملاء أحد أهم الاعتبارات عند تبني الذكاء الاصطناعي في قطاع التأمين. فمن خلال تشغيل النماذج محليًا أو عبر مزودي خدمات سحابية موثوقين، تتمتع الشركات بالتحكم الكامل في البيانات الحساسة، بعكس الاعتماد على واجهات برمجة التطبيقات الخارجية التي تخضع بياناتها لسياسات مقدمي الخدمات.

رأي الاتحاد المصري للتأمين

يمثل صعود النماذج مفتوحة المصدر في قطاع التأمين فرصة هائلة للشركات، حيث يتيح تقليل التكاليف، وتحسين دقة التحليلات، وتعزيز التحكم في البيانات. وتبرز الابتكارات الحديثة، مثل تلك التي تقدمها «DeepSeek»، أن الذكاء الاصطناعي لم يعد مقتصرًا على الأنظمة المغلقة، بل أصبح الابتكار المفتوح يعزز بيئة تنافسية أكثر عدلاً.

ومع استمرار شركات التأمين في تبني التقنيات الحديثة، فإن اعتماد النماذج مفتوحة المصدر يمنحها ميزة تنافسية من خلال تحسين الكفاءة التشغيلية وتعزيز خصوصية البيانات. ومع ذلك، يبرز تحدي تأمين سرية البيانات في ظل الطبيعة الديناميكية للتحديثات المستمرة في البرمجيات مفتوحة المصدر، مما يستلزم الاستثمار في أنظمة متقدمة للحماية من الاختراقات، وتطبيق بروتوكولات صارمة للأمان السيبراني. إن مستقبل الذكاء الاصطناعي في قطاع التأمين يسير نحو مزيد من الانفتاح، و ستكون الشركات الرائدة هي تلك التي تستثمر في هذا التحول الذكي، مع مراعاة أعلى معايير الأمان.

اقرأ أيضاًالبنك المركزي يطرح أذون خزانة بالدولار الأمريكي غدا الإثنين

أول قرار في 2025.. مؤشرات تحديد سعر الفائدة في اجتماع البنك المركزي المرتقب

المصدر: الأسبوع

كلمات دلالية: قطاع التأمين الاتحاد المصري للتأمين وول ستريت اتحاد التأمين تطبيق chatgpt تطبيق DeepSeek تطبيق ديب سيك صناعة التكنولوجيا الأمريكية التطبيق الصيني فی مجال الذکاء الاصطناعی الاتحاد المصری للتأمین الذکاء الاصطناعی فی الولایات المتحدة فی قطاع التأمین أسهم شرکات مما یجعله إلا أن

إقرأ أيضاً:

الذكاء الاصطناعي العام (AGI) الخطوة التالية لقطاع التكنولوجيا..ما المخاطر؟!

في ظل التسارع المذهل في تطوير تقنيات الذكاء الاصطناعي، يتطلع قادة التكنولوجيا والأعمال إلى الخطوة التالية في هذا المجال، وهي "الذكاء العام الاصطناعي" (AGI)، وهو نوع من الذكاء الاصطناعي يتمتع بقدرات إدراكية شبيهة بالبشر.

إن إيجاد طرق جديدة لضمان عدم عمل هذه الآلة -التي تتمتع بمستوى ذكاء البشر نفسه- ضد مصالح البشر،هدف مهم  يسعى إليه الباحثون، ويصبح من الضروري أن تتكاتف الجهود، في الوصول إليه.

وأصدر باحثون في شركة "جوجل ديب مايند" التابعة لجوجل ورقة بحثية جديدة، مكونة من أكثر من 100 صفحة، تشرح طريقة تطوير الذكاء العام الاصطناعي بأمان. بحسب تقرير لموقع "ArsTechnica" المتخصص في أخبار التكنولوجيا.
اقرأ أيضاً..الذكاء الاصطناعي.. من منظور إيجابي 

تشير تقديرات "ديب مايند" إلى إمكانية ظهور AGI خلال السنوات الخمس القادمة، وتحديدًا بحلول عام 2030، مما يستدعي تعاونًا دوليًا عاجلًا لوضع الأطر القانونية والأخلاقية.

لا يملك البشر حتى الآن وسيلة لمنع خروج الذكاء العام الاصطناعي -في حالة الوصول إليه- عن السيطرة، لكن الباحثين في شركة "جوجل ديب مايند" التابعة لجوجل يعملون على هذه المشكلة.

كشف الباحثون عن أربعة مخاطر رئيسية قد تنجم عن تطوير الذكاء الاصطناعي العام (AGI) الشبيه بذكاء الإنسان وقد يؤدي إلى "أضرار جسيمة"، لأجل هذا سعوا إلى فهم مخاطره.

أبرز المخاطر
حدد الباحثون أربعة أنواع محتملة من مخاطر الذكاء العام الاصطناعي، وقدموا اقتراحات حول طرق التخفيف من هذه المخاطر.

وصنّف فريق "ديب مايند" النتائج السلبية للذكاء العام الاصطناعي على أنها سوء الاستخدام، والانحراف، والأخطاء، والمخاطر الهيكلية. وقد ناقش البحث سوء الاستخدام والانحراف بإسهاب، وتناول الأخيران بإيجاز.

 
المشكلة المحتملة الأولى، هي سوء الاستخدام،  بحيث تتشابه بشكل أساسي مع مخاطر الذكاء الاصطناعي الحالية. ومع ذلك، ولأن الذكاء العام الاصطناعي سيكون أقوى بحكم تعريفه، فإن الضرر الذي قد يُلحقه سيكون أكبر بكثير.

وقد يُسيء أي شخص لديه إمكانية الوصول إلى الذكاء العام الاصطناعي استخدام النظام لإلحاق الضرر، على سبيل المثال، من خلال مطالبة النظام بتحديد ثغرات واستغلالها، أو إنشاء فيروس مُصمَّم يمكن استخدامه كسلاح بيولوجي.

قال فريق "ديب مايند" إنه سيتعين على الشركات التي تُطور الذكاء العام الاصطناعي إجراء اختبارات مكثفة ووضع بروتوكولات سلامة قوية لما بعد التدريب. بعبارة أخرى، حواجز أمان معززة للذكاء الاصطناعي.

ويقترح الفريق أيضًا ابتكار طريقة لكبح القدرات الخطيرة تمامًا، تُسمى أحيانًا "إلغاء التعلم" (unlearning)، ولكن من غير الواضح ما إذا كان ذلك ممكنًا من دون تقييد قدرات النماذج بشكل كبير.

أما مشكلة "الانحراف" فهي ليست محل قلق حاليًا مع الذكاء الاصطناعي التوليدي في صورته الحالية. لكن مع الذكاء العام الاصطناعي قد يختلف الأمر.

أخبار ذات صلة رفاهية أكثر في «ياس» بالذكاء الاصطناعي مساعد AI لتحسين سير العمل بالمصانع من مايكروسوفت

تُصور مشكلة "الانحراف" هذه كآلة متمردة تجاوزت القيود التي فرضها عليها مصمموها، كما هو الحال في فيلم "ترميناترو". وبشكل أكثر تحديدًا، يتخذ الذكاء الاصطناعي إجراءات يعلم أنها لا تتماشى مع ما يقصده المطور.

وقالت "ديب مايند" إن معيارها للانحراف في ما يتعلق بالذكاء العام الاصطناعي أكثر تقدمًا من مجرد الخداع أو التخطيط.
حلول مقترحة
لتجنب ذلك، تقترح  "ديب مايند" على المطورين استخدام تقنيات مثل الإشراف المُعزز، حيث تتحقق نسختان من الذكاء الاصطناعي من مخرجات بعضهما البعض، لإنشاء أنظمة قوية من لا يُحتمل أن تنحرف عن مسارها.

وإذا فشل ذلك، تقترح "ديب مايند" إجراء اختبارات ضغط ومراقبة مكثفة لاكتشاف أي مؤشر على أن الذكاء الاصطناعي قد يبدأ في التمرد ضدنا.

وقالت إن إبقاء الذكاء الاصطناعي العام في بيئة افتراضية آمنة للغاية وإشراف بشري مباشر يمكن أن يُساعد في التخفيف من حدة المشكلات الناجمة عن الانحراف.

الأخطاء
من ناحية أخرى، إذا لم يكن الذكاء الاصطناعي يعلم أن مخرجاته ستكون ضارة، ولم يكن المشغل البشري يقصد ذلك، فهذا "خطأ". ويحدث الكثير من هذه الأخطاء مع أنظمة الذكاء الاصطناعي الحالية.مع ذلك، قد تكون هذه المشكلة أصعب مع الذكاء العام الاصطناعي.
تشير "ديب مايند" إلى أن الجيوش قد تنشر الذكاء العام الاصطناعي بسبب "الضغط التنافسي"، لكن هذه الأنظمة قد ترتكب أخطاء جسيمة لأنها ستُكلف بوظائف أكثر تعقيدًا بكثير من الذكاء الاصطناعي الحالي.

توصي الورقة بعدد من الإجراءات الوقائية،  للحد من الأخطاء. باختصار، يتلخص الأمر في عدم السماح للذكاء العام الاصطناعي بأن يصبح قويًا جدًا في المقام الأول.

وتدعو "ديب مايند" إلى نشر الذكاء العام الاصطناعي تدريجيًا والحد من صلاحياته، وتمرير أوامر الذكاء العام الاصطناعي عبر نظام حماية يضمن أن تكون آمنة قبل تنفيذها.

مخاطر هيكلية
تُعرف "ديب مايند" المخاطر الهيكلية على أنها عواقب غير مقصودة، وإن كانت حقيقية، للأنظمة متعددة الوكلاء التي تُسهم في تعقيد حياتنا البشرية.

على سبيل المثال، قد يُنتج الذكاء العام الاصطناعي معلومات مُضلّلة تبدو مُقنعة لدرجة أننا لم نعد نعرف بمن أو بما نثق. كما تُثير الورقة البحثية احتمالية أن يُراكِم الذكاء العام الاصطناعي سيطرة متزايدة على الأنظمة الاقتصادية والسياسية، ربما من خلال وضع مخططات تعريفات جمركية مُفرطة.

وقد تؤدي هذه المخاطر الهيكلية إلى أن نجد في يومٍ ما أن الآلات هي المُسيطرة بدلًا منّا.

وتُعتبر هذه الفئة من المخاطر أيضًا الأصعب في الحماية منها، لأنها ستعتمد على طريقة عمل الأفراد والبنية التحتية والمؤسسات في المستقبل.

لضمان أن يكون الذكاء الاصطناعي العام أداة لخدمة البشرية، لا مصدرًا لتهديدها..كما تشير "ديب مايند"، فإن التقدم نحو AGI قد يكون أسرع مما نتخيل، ما يجعل من وضع الحواجز الأخلاقية والتقنية ضرورة عاجلة لا تحتمل التأجيل.
لمياء الصديق(أبوظبي)

مقالات مشابهة

  • تطبيق جديد يحمي الأعمال الفنية من الذكاء الاصطناعي
  • الذكاء الاصطناعي العام (AGI) الخطوة التالية لقطاع التكنولوجيا..ما المخاطر؟!
  • DeepSeek تكشف عن طريقة جديدة للاستدلال بالذكاء الاصطناعي
  • ميتا تطلق Llama 4 .. مجموعة جديدة من نماذج الذكاء الاصطناعي الرائدة​
  • خدعة أبريل التي صدّقها الذكاء الاصطناعي
  • بيل غيتس يكشف عن 3 مهن ستصمد في وجه الذكاء الاصطناعي
  • كل ما تحتاج معرفته عن تطبيق الدردشة الذكي ديب سيك
  • غيتس يحدد المهن التي ستبقى خارج سيطرة الذكاء الاصطناعي
  • سعر الدولار أمام الجنيه المصري في عطلة البنوك الأسبوعية
  • كيف وقع الذكاء الاصطناعي ضحية كذبة أبريل؟