علوم وتكنولوجيا حقيقية ولا ذكاء اصطناعى.. كيف يمكن التحقق من أصل الصور على الإنترنت؟
تاريخ النشر: 23rd, July 2023 GMT
علوم وتكنولوجيا، حقيقية ولا ذكاء اصطناعى كيف يمكن التحقق من أصل الصور على الإنترنت؟،كان التفريق بين ما إذا كانت الصورة التي تراها من صنع الذكاء الاصطناعي أم حقيقية مهمة .،عبر صحافة مصر، حيث يهتم الكثير من الناس بمشاهدة ومتابعه الاخبار، وتصدر خبر حقيقية ولا ذكاء اصطناعى.. كيف يمكن التحقق من أصل الصور على الإنترنت؟، محركات البحث العالمية و نتابع معكم تفاصيل ومعلوماته كما وردت الينا والان إلى التفاصيل.
كان التفريق بين ما إذا كانت الصورة التي تراها من صنع الذكاء الاصطناعي أم حقيقية مهمة صعبة منذ الأشهر القليلة الماضية، وفي الواقع، هناك احتمالات بأن الكثير منا قد خدع بالمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعى في الأشهر القليلة الماضية، ولكن يبدو أن أيام هذا الخداع قد تكون معدودة، ومن أجل ذلك، تعهد تحالف من عمالقة التكنولوجيا والشركات الناشئة بوضع علامة مائية على المحتوى الذي تنتجه أدوات الذكاء الاصطناعي.
وبحسب موقع TOI الهندى، فقد وافقت 7 شركات رائدة في مجال الذكاء الاصطناعي في الولايات المتحدة على ضمانات طوعية لتطوير التكنولوجيا، وتعهدت بإدارة مخاطر الأدوات الجديدة، حيث أعلنت الشركات السبع - Amazon وAnthropic وGoogle وInflection وMeta وMicrosoft وOpenAI - رسميًا التزامها بالمعايير الجديدة في مجالات السلامة والأمن والثقة في اجتماع مع الرئيس جو بايدن في البيت الأبيض في 21 يوليو.
ويأتي هذا الإعلان في الوقت الذي تتسابق فيه الشركات للتغلب على بعضها البعض بإصدارات من الذكاء الاصطناعي تقدم طرقًا جديدة قوية لإنشاء نصوص وصور وموسيقى وفيديو دون تدخل بشري، لكن القفزات التكنولوجية أثارت مخاوف بشأن انتشار المعلومات المضللة والتحذيرات الرهيبة من "خطر الانقراض" مع تطور أجهزة الكمبيوتر التي تدرك نفسها بنفسها.
صور الذكاء الاصطناعي تحصل على علامة مائيةالتزمت الشركات بتطوير آليات تقنية قوية للتأكد من أن المستخدمين يعرفون متى يتم إنشاء المحتوى بواسطة الذكاء الاصطناعي، مثل نظام العلامات المائية. يمكّن هذا الإجراء الإبداع مع الذكاء الاصطناعي من الازدهار ولكنه يقلل من مخاطر الاحتيال والخداع، وستبحث هذه الشركات أيضًا في مخاطر مثل التحيز والتمييز وانتهاك الخصوصية، أما الالتزام الرئيسي الآخر هو الاستثمار في الأمن السيبراني وضمانات التهديدات الداخلية لحماية أوزان النماذج المسجلة الملكية وغير المنشورة.
وتعتبر أوزان النموذج هذه أهم جزء في نظام الذكاء الاصطناعي، وتتفق الشركات على أنه من الضروري إصدار أوزان النموذج فقط عندما يكون مقصودًا وعندما يتم أخذ المخاطر الأمنية في الاعتبار.
المصدر: صحافة العرب
كلمات دلالية: الذكاء موعد عاجل الدولار الامريكي اليوم اسعار الذهب اسعار النفط مباريات اليوم جدول ترتيب حالة الطقس الذکاء الاصطناعی
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي قادر على الخداع
تابع أحدث الأخبار عبر تطبيق
أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية أنثروبيك أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين وإبداء وجهات نظر مختلفة خلال تدريبها وفقا لما نشرته مجلة تك كرانش المتخصصة فى هذا المجال .
كشف فريق البحث إنه لا يوجد سبب للشعور بالفزع حاليا في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
ولهذا يجب النظر إلى تلك النتائج كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة بعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة.
تمت الدراسة بالتعاون مع مؤسسة ريد وود ريسيرش لأبحاث الذكاء الاصطناعي وتناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة لا يريد هوالقيام بها.
كما أن لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ ، فهي ببساطة آلات إحصائية وبعد تدريبها على العديد من الأمثلة تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة إلى من في رسالة بريد إلكتروني قبل عبارة قد يهمك الأمر.
وفى أثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة بما في ذلك النموذج "كلاود3 أوبس" التابع لشركة "أنثروبيك" والتي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة وهو تضارب واضح في المبادئ كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي ورقة ملاحظات .
ويمكنه استخدامها لتدوين أفكاره خطوة بخطوة وبحسب الباحثين فحاول "كلاود3 أوبوس" التلاعب بالردود لتقديم انحياز زائف في 12% من المرات.