OpenAI تكتشف الصور المنشئة بواسطة برنامجها الخاص
تاريخ النشر: 8th, May 2024 GMT
نعتقد جميعًا أننا جيدون جدًا في تحديد الصور التي يصنعها الذكاء الاصطناعي. إنه النص الغريب الغريب في الخلفية. إنها الأخطاء الغريبة التي يبدو أنها تنتهك قوانين الفيزياء. الأهم من ذلك كله، أنها تلك الأيدي والأصابع.
ومع ذلك، فإن التكنولوجيا تتطور باستمرار ولن يمر وقت طويل حتى لا نكون قادرين على معرفة ما هو حقيقي أم لا.
تقول الشركة إنها تستطيع اكتشاف الصور التي تم التقاطها بواسطة DALL-3 بدقة بنسبة 98 بالمائة من الوقت، وهو أمر رائع. ومع ذلك، هناك بعض التحذيرات الكبيرة إلى حد ما. أولًا، يجب أن يتم إنشاء الصورة بواسطة DALL-E، حسنًا، فهو ليس منشئ الصور الوحيد في الكتلة. الإنترنت يفيض معهم. وفقًا للبيانات المقدمة من OpenAI، تمكن النظام فقط من تصنيف خمسة إلى عشرة بالمائة بنجاح من الصور التي تم التقاطها بواسطة نماذج الذكاء الاصطناعي الأخرى.
كما أنه يواجه مشكلة إذا تم تعديل الصورة بأي شكل من الأشكال. لا يبدو أن هذا يمثل مشكلة كبيرة في حالة التعديلات الطفيفة، مثل الاقتصاص والضغط والتغيرات في التشبع. وفي هذه الحالات، كان معدل النجاح أقل ولكنه لا يزال ضمن النطاق المقبول عند حوالي 95 إلى 97 بالمائة. ومع ذلك، أدى تعديل درجة اللون إلى خفض معدل النجاح إلى 82 بالمائة.
الآن هنا تصبح الأمور لزجة حقًا. واجهت مجموعة الأدوات صعوبة عند استخدامها لتصنيف الصور التي خضعت لتغييرات أكثر شمولاً. ولم تنشر OpenAI حتى معدل النجاح في هذه الحالات، مشيرة ببساطة إلى أن "التعديلات الأخرى يمكن أن تقلل الأداء".
هذا أمر مؤسف، لأنه، حسنًا، إنه عام انتخابي وسيتم تعديل الغالبية العظمى من الصور التي ينشئها الذكاء الاصطناعي بعد حدوثها من أجل إثارة غضب الناس بشكل أفضل. بمعنى آخر، من المحتمل أن تتعرف الأداة على صورة جو بايدن نائمًا في المكتب البيضاوي محاطًا بأكياس من المسحوق الأبيض، ولكن ليس بعد أن يضع المنشئ مجموعة من النصوص الغاضبة وصور Photoshop على شكل نسر أصلع يبكي أو أي شيء آخر.
على الأقل، تتحلى OpenAI بالشفافية فيما يتعلق بالقيود المفروضة على تكنولوجيا الكشف الخاصة بها. كما أنه يمنح المختبرين الخارجيين إمكانية الوصول إلى الأدوات المذكورة أعلاه للمساعدة في حل هذه المشكلات، وفقًا لما أوردته صحيفة وول ستريت جورنال. قامت الشركة، جنبًا إلى جنب مع مايكروسوفت، بضخ مليوني دولار في ما يسمى صندوق المرونة المجتمعية، والذي يأمل في توسيع تعليم الذكاء الاصطناعي ومحو الأمية.
لسوء الحظ، فإن فكرة إفساد الذكاء الاصطناعي للانتخابات ليست فكرة بعيدة المنال. إنه يحدث الآن. لقد كانت هناك بالفعل إعلانات انتخابية تم إنشاؤها بواسطة الذكاء الاصطناعي وصور مخادعة تم استخدامها في هذه الدورة، ومن المحتمل أن يكون هناك المزيد في المستقبل بينما نزحف ببطء نحو شهر نوفمبر.
المصدر: بوابة الوفد
كلمات دلالية: الصور الذكاء الاصطناعي الفيزياء جو بايدن نوفمبر الذکاء الاصطناعی الصور التی
إقرأ أيضاً:
الذكاء الاصطناعي مجرد وهم.. باحثون يكشفون السبب
تابع أحدث الأخبار عبر تطبيق
في تطور جديد يعيد تقييم فعالية الذكاء الاصطناعي، أعلن باحثون بإحدى شركات التكنولوجيا العملاقة أن الذكاء الاصطناعي، وخصوصًا النماذج اللغوية الكبيرة، يُظهر سلوكًا يُوحي بالذكاء ولكنه في الواقع مجرد وهم، هذه النماذج تُظهر قدرة على الاستجابة والتفاعل مع المستخدمين، إلا أنها تفتقر إلى التفكير المنطقي الحقيقي وفهم السياق العميق.
ووفقا لموقع techxplore أن الباحثون يقولون رغم التقدم الكبير الذي حققته تطبيقات الذكاء الاصطناعي، توضح دراسة باحثي شركة التكنولوجيا أن هذه التقنيات ما زالت بعيدة عن تحقيق ذكاء حقيقي، والنماذج الحالية تعتمد على تقنيات تحليل الأنماط بدلاً من الفهم العميق أو التفكير المنطقي، مما يجعلها أداة مفيدة ولكنها ليست بديلاً عن العقل البشري، ونُشر البحث عبر منصة arXiv preprint.
نقاط البحث الأساسية:
• أجريت الدراسة على نماذج لغوية كبيرة، مثل تلك المستخدمة في تطبيقات الذكاء الاصطناعي الشائعة.
• أظهرت النتائج أن هذه النماذج لا تفهم الأسئلة المطروحة فهمًا حقيقيًا، بل تعتمد على بنية الجمل والخوارزميات المكتسبة.
الفرضية الأساسية للدراسة:
افترض الباحثون أن الذكاء الحقيقي، سواء للكائنات الحية أو الآلات، يتطلب القدرة على:
1. التمييز بين المعلومات ذات الصلة وغير ذات الصلة: مثال ذلك، إذا سأل طفل والده عن عدد التفاح في حقيبة تحتوي على تفاح صغير الحجم، يمكن للعقل البشري تجاهل حجم التفاح كعامل غير ذي صلة بالإجابة.
2. إظهار التفكير المنطقي: القدرة على استخلاص الاستنتاجات الصحيحة بناءً على المعطيات المتاحة.
اختبار النماذج اللغوية الكبيرة:
• استخدم الباحثون مئات الأسئلة التي استُخدمت سابقًا لتقييم قدرة النماذج اللغوية.
• أضيفت معلومات غير ذات صلة إلى هذه الأسئلة لقياس قدرة الذكاء الاصطناعي على تجاهلها.
• النتيجة: أدى وجود معلومات زائدة إلى إرباك الذكاء الاصطناعي، مما نتج عنه إجابات خاطئة أو غير منطقية.
نتائج البحث:
1. عدم الفهم الحقيقي للسياق
النماذج اللغوية الكبيرة لا تفهم الأسئلة فهمًا عميقًا. بدلاً من ذلك، تستند إلى التعرف على الأنماط وتوليد إجابات تعتمد على البيانات السابقة.
2. إجابات مضللة
أعطت النماذج إجابات بدت صحيحة ظاهريًا، لكنها عند الفحص الدقيق تبين أنها خاطئة أو غير متسقة مع المنطق.
3. الوهم الذكي
النماذج تظهر وكأنها “تفكر” أو “تشعر”، لكنها في الواقع تعتمد على خوارزميات تعليم الآلة للتفاعل مع المستخدم، دون وجود ذكاء حقيقي أو إدراك.
أمثلة توضيحية من البحث:
• سؤال بسيط: عند طرح سؤال على الذكاء الاصطناعي يتضمن معلومات غير ضرورية، غالبًا ما يدمجها في إجابته بدلاً من تجاهلها.
• الشعور والإحساس: عند سؤال الذكاء الاصطناعي عن “شعوره” تجاه أمر معين، قد يقدم إجابات تُوحي بأنه يشعر، لكن هذه مجرد خدعة لغوية تعتمد على بيانات التدريب.
دلالات البحث:
• النتائج تعزز وجهة النظر التي ترى أن الذكاء الاصطناعي ليس “ذكاءً” حقيقيًا بالمعنى البشري، بل هو نموذج إحصائي معقد.
• تؤكد الدراسة أن الذكاء الاصطناعي الحالي غير قادر على التفكير المنطقي أو فهم السياق كما يفعل الإنسان.
التحديات المستقبلية:
• تحسين قدرة النماذج اللغوية على الفصل بين المعلومات ذات الصلة وغير ذات الصلة.
• تطوير نماذج ذكاء اصطناعي تفهم السياق بشكل أفضل وتُظهر منطقًا أقرب للإنسان.
• تقليل الاعتماد على الأنماط الإحصائية وزيادة التركيز على التفاعل الديناميكي.