أعلنت شركة OpenAI، المطورة لأشهر أنظمة الذكاء الاصطناعي في العالم مثل ChatGPT، عن إطلاق نظام تحقق جديد يحمل اسم "Verified Organization"، يستهدف المؤسسات الراغبة في الوصول إلى نماذج الذكاء الاصطناعي الأكثر تقدمًا في منصتها خلال الفترة القادمة.

التحقق الإجباري.. بهوية حكومية كل 90 يومًا

وبحسب صفحة الدعم التي نشرتها الشركة على موقعها الرسمي الأسبوع الماضي، فإن نظام التحقق الجديد يتطلب تقديم هوية حكومية صالحة من إحدى الدول المدعومة عبر واجهة برمجة التطبيقات (API)، على أن يتم استخدام كل هوية للتحقق من مؤسسة واحدة فقط خلال فترة تمتد لـ 90 يومًا.

ورغم أن OpenAI لم توضح بعد ما إذا كانت هذه الخطوة ستكون إلزامية على جميع المستخدمين، فإنها أشارت إلى أن "ليست كل المؤسسات ستكون مؤهلة للتحقق"، ما يفتح الباب أمام معايير تصنيف غير معلنة حتى الآن.

لماذا الآن؟ دوافع أمنية وتقنية واضحة

تقول OpenAI في بيانها:"نأخذ مسؤوليتنا على محمل الجد لضمان أن يكون الذكاء الاصطناعي متاحًا على نطاق واسع ويُستخدم بأمان... للأسف، هناك أقلية من المطورين تستخدم واجهات OpenAI في انتهاك لسياسات الاستخدام الخاصة بنا".

ويبدو أن التحقق الإجباري يأتي ضمن خطة متكاملة لتعزيز حماية المنصة من الاستخدامات الخبيثة أو الخارجة عن القانون، خصوصًا مع تصاعد تقارير تربط استخدام نماذج الذكاء الاصطناعي في حملات تضليل، قرصنة، أو تطوير أدوات هجومية.

أجهزة o4-mini و o3.. بداية مرحلة جديدة في إنتاج الذكاء الاصطناعي من OpenAIOpenAI ترفع دعوى مضادة ضد إيلون ماسكOpenAI توفر وصولا مجانيا إلى Chatgpt Plus حتى مايو 2025OpenAI تطور هاتفا بلا شاشة يعمل بالذكاء الاصطناعيOpenAI تواجه اتهامات خطيرة بسبب كتب O’Reilly المحمية بحقوق النشرOpenAI تعزز قدرات إنشاء الصور في شات جي بي تيOpenAI تُحسن مساعدها الصوتي ليصبح أكثر تفاعلًا وسلاسة في المحادثاتخلفية من المخاطر والتجسس الصناعي

فبحسب تقرير نشره موقع Bloomberg في وقت سابق من هذا العام، فإن OpenAI فتحت تحقيقًا داخليًا بشأن شبهات تسريب كميات ضخمة من بيانات واجهة البرمجة الخاصة بها لصالح مختبر الذكاء الاصطناعي الصيني DeepSeek، وذلك في أواخر عام 2024.

ووفق التقرير، فإن هذه البيانات قد تكون استُخدمت في تدريب نماذج منافسة بشكل ينتهك بنود الاستخدام الصارمة التي تفرضها OpenAI على المطورين. 

وتجدر الإشارة إلى أن الشركة كانت قد حجبت خدماتها رسميًا عن الصين في صيف 2024.

 خطوة نحو حماية الملكية الفكرية وتعزيز الشفافية

قد يكون التحقق من الهوية  بداية لتحول أكبر في سياسات الوصول إلى تقنيات الذكاء الاصطناعي المتقدمة، في ظل المخاوف الدولية المتزايدة بشأن سرقة البيانات، وتوظيف الذكاء الاصطناعي في الهجمات السيبرانية أو إنتاج محتوى مضلل.

ومع توجه دول مثل الولايات المتحدة والاتحاد الأوروبي إلى فرض لوائح تنظيمية على المطورين، قد تكون OpenAI تسعى لتقديم نفسها كشركة رائدة في الامتثال والحوكمة الأخلاقية للتقنيات الحديثة.

المصدر: صدى البلد

كلمات دلالية: الذكاء الاصطناعي المزيد الذکاء الاصطناعی

إقرأ أيضاً:

تقني يوضح كيف يستفيد الكفيف من تقنيات الذكاء الاصطناعي؟ ..فيديو

الرياض

أوضح بدر الرشيدي، خبير تقني من المكفوفين، كيف يستفيد الكفيف من تقنيات الذكاء الاصطناعي؟.

وقال الرشيدي خلال لقاء مع برنامج يا هلا: “نحن كمكفوفين لا ننتظر إعلان شركة أو إعلان جهة توفر تقنية للكفيفة أنت حاول قدر الإمكان أن تصنع الشيء الذي تريده”.

وتابع: “علي سبيل المثال Chat GPT هل تم إطلاقه من أجل المكفوفين، بالطبع لا، فهو لكل العالم، لذلك نحن كمكفوفين استعنا به من خلال وصف الصور، نقوم بإرسال صورة له وهو يخبرنا بالوصف”.

https://cp.slaati.com//wp-content/uploads/2025/05/NRZ3MSDsN1_rvtdA.mp4

مقالات مشابهة

  • وزير الثقافة يدعو لوضع أطر تنظيمية لحماية التراث من مخاطر الذكاء الاصطناعي
  • وزير الثقافة يدعو إلى تحرك دولي لوضع أطر تنظيمية لحماية التراث من مخاطر الذكاء الاصطناعي
  • تقني يوضح كيف يستفيد الكفيف من تقنيات الذكاء الاصطناعي؟ ..فيديو
  • ويكيبيديا تدخل عصر الذكاء الاصطناعي دون الاستغناء عن المحررين
  • مؤقتو الصحف القومية يشكرون مجلس الوزراء والهيئة الوطنية ونقابة الصحفيين لاتخاذهم خطوات جادة في التعيينات
  • مايكروسوفت.. نماذج صغيرة تنافس عمالقة الذكاء الاصطناعي
  • خبراء يحذِّرون: الذكاء الاصطناعي يجعل البشر أغبياء
  • إطلاق تكنولوجيا جديدة لحماية الطاقة في مراكز البيانات وتطبيقات الذكاء الاصطناعي
  • مخاطر الذكاء الاصطناعي على التعليم والبحث العلمي
  • السعودية تفرض عقوبات مشددة على مخالفي تعليمات الحج.. غرامات وترحيل وتدابير صارمة