"أوبن أيه آي" تطلق نماذج ذكاء اصطناعي بقدرات تفكير تشبه البشر
تاريخ النشر: 17th, September 2024 GMT
أعلنت شركة "أوبن أيه آي"، المدعومة من مايكروسوفت، عن إطلاق سلسلة جديدة من نماذج الذكاء الاصطناعي التي تتميز بقدرتها على التفكير بشكل أعمق لمعالجة المشكلات المعقدة. هذه النماذج، التي تحمل أسماء "أو1" و"أو1-ميني"، تم تصميمها خصيصًا لحل تحديات أصعب في مجالات مثل العلوم، التشفير، والرياضيات، ما يجعلها أكثر تقدمًا من الإصدارات السابقة.
أوضحت "أوبن أيه آي" أن هذه النماذج تم تدريبها لتخصيص وقت أطول في التفكير قبل إصدار الردود، ما يعزز قدرتها على معالجة المشكلات بطريقة شبيهة بالبشر. من خلال هذا التدريب، تتعلم النماذج تحسين استراتيجيات تفكيرها، تجريب أساليب جديدة، واكتشاف أخطائها والعمل على تصحيحها.
توفر النماذج الجديدة في تشات جي.بي.تياعتبارًا من الخميس، ستكون نماذج "أو1" متاحة عبر منصة "تشات جي.بي.تي" وواجهة برمجة التطبيقات الخاصة بها، مما يتيح للمستخدمين الاستفادة من قدراتها المتقدمة في معالجة المشكلات المعقدة. تأتي هذه الخطوة في إطار سعي "أوبن أيه آي" إلى تطوير أدوات ذكاء اصطناعي تسهم في تعزيز التطبيقات العلمية والتقنية.
المصدر: بوابة الفجر
كلمات دلالية: أوبن أيه آي الذكاء الاصطناعي نماذج الذكاء الاصطناعي أوبن أیه آی
إقرأ أيضاً:
ذكاء اصطناعي بلا ضوابط.. أثار جدلاً أخلاقياً وقلقاً دولياً:»نيويورك تايمز«: إسرائيل حوّلت حرب غزة إلى مختبر للذكاء الاصطناعي
كشفت صحيفة «نيويورك تايمز» الأمريكية أن تل أبيب أجرت اختبارات واسعة النطاق على تقنيات الذكاء الاصطناعي المتطورة خلال حربها الأخيرة على قطاع غزة، ما أثار جدلا أخلاقيا وتحذيرات دولية من تبعات استخدام هذه التكنولوجيا في الحروب.
وأفادت الصحيفة، في تحقيق موسع نشرته مؤخراً بأن كيان الاحتلال استخدم أنظمة متقدمة لتحديد المواقع، والتعرف على الوجوه، وتحليل المحتوى العربي، ضمن عملياته العسكرية التي تصاعدت منذ أواخر عام 2023م. وأوضحت أن هذه الاختبارات شملت أدوات لم يسبق تجربتها في ساحات القتال، مما أثار قلقًا واسعًا بشأن الأضرار المحتملة على المدنيين.
ووفقًا لثلاثة مسؤولين من كيان الاحتلال والولايات المتحدة مطلعين، بدأت التجارب بمحاولة اغتيال القيادي في حركة حماس إبراهيم البياري، حيث استعان كيان الاحتلال بأداة صوتية تعتمد على الذكاء الاصطناعي طورتها الوحدة 8200، لتحديد موقعه التقريبي من خلال تحليل مكالماته.
وبحسب منظمة «إيروورز» البريطانية، أسفرت الغارة على البياري، في 31 أكتوبر، عن استشهاده إلى جانب أكثر من 125 مدنيًا.
واستمر كيان الاحتلال، خلال الأشهر التالية، في تسريع دمج الذكاء الاصطناعي في عملياته، بما شمل تطوير برامج للتعرف على الوجوه المشوهة، واختيار أهداف الغارات الجوية تلقائيًا، ونموذج لغوي ضخم يحلل المنشورات والمراسلات العربية بلهجات مختلفة.
كما أدخل نظام مراقبة بصري يستخدم عند الحواجز لفحص وجوه الفلسطينيين.
وأكد مسؤولون أن غالبية هذه التقنيات طُورت في مركز يعرف باسم «الاستوديو»، الذي يجمع خبراء من الوحدة 8200 بجنود احتياط يعملون في شركات كبرى مثل غوغل ومايكروسوفت وميتا.
وأثارت هذه الابتكارات مخاوف من أخطاء قد تؤدي إلى اعتقالات خاطئة أو استهداف مدنيين، إذ حذرت هاداس لوربر، خبيرة الذكاء الاصطناعي والمديرة السابقة بمجلس الأمن القومي لكيان الاحتلال، من أن غياب الضوابط الصارمة قد يقود إلى «عواقب وخيمة».
من جهته، قال أفيف شابيرا، مؤسس شركة XTEND المتخصصة بالطائرات المسيّرة، إن قدرات الذكاء الاصطناعي تطورت لتتعرف على الكيانات وليس فقط صور الأهداف، لكنه شدد على ضرورة التوازن بين الكفاءة والاعتبارات الأخلاقية.
ومن بين المشاريع البارزة، تطوير نموذج لغوي ضخم لتحليل اللهجات العربية ومراقبة المزاج العام، ساعد في تقييم ردود الأفعال بعد اغتيال زعيم حزب الله السيد حسن نصر الله في سبتمبر 2024. ومع ذلك، واجهت هذه التكنولوجيا بعض الأخطاء في فهم المصطلحات العامية.
ورفضت شركات ميتا ومايكروسوفت التعليق على التقارير، بينما أكدت غوغل أن موظفيها لا يؤدون مهاماً مرتبطة بالشركة خلال خدمتهم العسكرية. من جهته، رفض جيش كيان الاحتلال التعليق على تفاصيل البرامج، مكتفيًا بالتأكيد على الالتزام بالاستخدام “القانوني والمسؤول” لتكنولوجيا البيانات.
وأشارت “نيويورك تايمز” إلى أن استخدام الصراعات كحقول تجارب للتقنيات العسكرية ليس جديدًا بالنسبة لكيان الاحتلال، لكنها لفتت إلى أن حجم وسرعة توظيف الذكاء الاصطناعي في حرب 2023 – 2024م غير مسبوقين. وحذّر مسؤولون أمريكيون وأوروبيون من أن هذه الممارسات قد تشكل نموذجًا خطيرًا لحروب المستقبل، حيث يمكن أن تؤدي أخطاء الخوارزميات إلى كوارث إنسانية وفقدان الشرعية العسكرية.